Ξημερώνουν ἐφιαλτικὲς ἡμέρες γιὰ τὴν ἀνθρωπότητα…
Νομομαγειρεύονται τόσο σκληρὲς συνθῆκες διαβιώσεως, ποὺ ἡ ἀνθρωπότης θὰ μεταβῆ πλέον ἐπισήμως σὲ ἐπίπεδα ἀπολύτου ὑποταγῆς. Ἡ δὲ πολιτικὴ ὀρθότης, ἐπικρατούσα ἤδη, σὲ ἐπίπεδον προπαγανδιστικόν, πολιτειακὸν καὶ πεπαιδευτικόν, διαρκῶς αὐξάνει τὶς ὀρέξεις της καὶ ἐπεκτείνει τὰ πεδία ἐλέγχου της. Ὁ δὲ πλέον συνειδητός της σκοπός, ποὺ δίχως προσχήματα ἐπὶ τέλους, ὁδεύει πρὸς τὴν ὑλοποίησίν του, ξεκινᾶ ἀπὸ τὰ νομικὰ πλαίσια, γιὰ νὰ καταλήξῃ στὴν πλήρη ὑποταγή, κάθε ἀντιφρονοῦντος ἤ, ἀκόμη καὶ στὴν ἐξόντωσίν του.
Γιὰ ἀρχὴ ἂς δοῦμε ὅμως τὶς προειδοποιήσεις τοῦ Νίμροντ Κοζλόφσκι, συμβούλου τοῦ νομικοῦ γραφείου Herzog, Fox & Neeman.
Εφιαλτική η αξιολόγηση πολιτών βάσει αλγορίθμων
Όταν γίνει εφικτό, οι προγνωστικοί αλγόριθμοι θα χρησιμοποιηθούν σε μεγάλη κλίμακα από τον ιδιωτικό τομέα και από τις κυβερνήσεις, προειδοποιεί ο Νίμροντ Κοζλόφσκι, σύμβουλος του νομικού γραφείου Herzog, Fox & Neeman.
Οι οικονομίες της Δύσεως κινδυνεύουν να διολισθήσουν προς το καθεστώς αλγοριθμικής αξιολογήσεως των πολιτών που ήδη εφαρμόζεται στην Κίνα, αλλά με πιο αδιαφανή τρόπο, προειδοποιεί ο Νίμροντ Κοζλόφσκι.
Ο κ. Κοζλόφσκι, σύμβουλος του νομικού γραφείου Herzog, Fox & Neeman και εταίρος στην εταιρεία Venture Capital JVP με ειδίκευση στην κυβερνοασφάλεια και στα big data, μιλώντας στην «Κ», σημειώνει: «Πρέπει να θεωρούμε ότι όταν γίνει τεχνικά εφικτό να χρησιμοποιηθούν αυτές οι τεχνολογίες –οι προγνωστικοί αλγόριθμοι– σε μεγάλη κλίμακα, τότε θα χρησιμοποιηθούν τόσο από την κυβέρνηση όσο και από τον ιδιωτικό τομέα. Και είμαστε ήδη κοντά σε αυτό το σημείο – η εξέλιξη τα τελευταία χρόνια έχει υπάρξει τρομακτική».
Η διείσδυση αυτών των τεχνολογιών στην Δύση, εξηγεί ο κ. Κοζλόφσκι, «δεν θα γίνει με εξίσου διαφανή τρόπο όπως στην Κίνα», όπου δεν υπάρχουν τα αντίστοιχα ταμπού υπέρ της ατομικής ελευθερίας και κατά της παρακολουθήσεως.
«Κατ’ αρχάς θα είναι πιο αποκεντρωμένη διαδικασία. Πάρα πολλές εταιρείες θα συλλέγουν δεδομένα και θα αξιολογούν τους ανθρώπους, θα κάνουν το προφίλ τους, με βάση αυτά.
Αυτό θα γίνεται χωρίς τα άτομα που αξιολογούνται να το γνωρίζουν. Ήδη σήμερα μπορεί να χάσω μία δουλειά για την οποία είμαι υποψήφιος ή να μην λάβω ένα τραπεζικό δάνειο επειδή έτσι έκρινε ένα αυτοματοποιημένο σύστημα με βάση τα στοιχεία που έχει για εμένα. Δεν γνωρίζω πώς κατέληξε στην ετυμηγορία του αυτό το αυτοματοποιημένο σύστημα και δεν έχω την δυνατότητα να αντιδράσω στην απόφασή του».
Παράλληλα, σημειώνει, «βλέπουμε να γίνονται συμφωνίες όπου εταιρείες που διαθέτουν μεγάλο όγκο προσωπικών δεδομένων πωλούν τα δεδομένα αυτά σε άλλες εταιρείες, ή πωλούν τα προφίλ που έχουν φτιάξει για κάποιο σκοπό, ώστε να χρησιμοποιηθούν για κάτι άλλο. Ένα παράδειγμα είναι η αποκάλυψη για την πρόσβαση στα δεδομένα των χρηστών του που έδινε το Facebook σε άλλες μεγάλες εταιρείες τεχνολογίας.
Ένα άλλο παράδειγμα είναι οι τράπεζες. Έχουμε ήδη παρατηρήσει φαινόμενα τραπεζών που έχουν φτιάξει αλγορίθμους για την πιστοληπτική αξιολόγηση των πελατών τους, να πωλούν τα δεδομένα αυτά σε άλλες εταιρείες».
Το άλλο κρίσιμο πεδίο είναι η χρήση των τεχνολογιών αυτών από το κράτος. «Θα ήταν αφελές να θεωρήσουμε ότι κάτι τέτοιο μπορεί να αποφευχθεί», σημειώνει ο Ισραηλινός ειδικός. Τον περασμένο μήνα, όπως αναφέρει, η ομάδα D9 (Digital 9), οι εννέα πιο προηγμένες ψηφιακά χώρες στον κόσμο, είχαν μία συνάντηση στο Ισραήλ «με σκοπό να συζητήσουμε πώς θα δώσουμε ηθική καθοδήγηση στην τεχνητή νοημοσύνη. Μεγάλο μέρος της συζητήσεως εστιάσθηκε στο πώς οι αλγόριθμοι που θα χρησιμοποιούνται σε μία σειρά από πεδία, από την εσωτερική ασφάλεια ώς την επιλογή υπαλλήλων για την δημόσια διοίκηση και την επιδοματική πολιτική, θα είναι αμερόληπτοι και αντικειμενικοί, χωρίς τις προκαταλήψεις των προγραμματιστών τους».
Στην χρονιά που έφυγε ξέσπασε σειρά σκανδάλων σχετικών με την επεξεργασία και την κατάχρηση των προσωπικών δεδομένων των χρηστών του Διαδικτύου. Πώς πρέπει να ρυθμισθεί η δραστηριότητα των μονοπωλιακών κολοσσών του Διαδικτύου, όπως η Facebook και η Google, που παρέχουν δωρεάν υπηρεσίες αλλά χρησιμοποιούν ως προϊόν τα προσωπικά δεδομένα των χρηστών;
Σε αντίθεση με τις προηγούμενες περιπτώσεις παρεμβάσεων στον κλάδο της τεχνολογίας, από τις τηλεπικοινωνίες και το λειτουργικό σύστημα των προσωπικών υπολογιστών ώς την διαδικτυακή αναζήτηση, «οι ελεγκτικές αρχές αυτή την φορά δεν έχουν ως κίνητρο την υπεράσπιση του ελευθέρου ανταγωνισμού έναντι μονοπωλιακών πρακτικών, αλλά την προστασία της ιδιωτικότητας», λέει ο κ. Κοζλόφσκι.
Ο μεγάλος κίνδυνος
«Συνειδητοποιούμε πλέον ολοένα και περισσότερο ότι το κρίσιμο ζήτημα είναι ο έλεγχος των δεδομένων και η απειλή για τις ελευθερίες μας που συνεπάγεται η συγκέντρωση του ελέγχου αυτού σε πολύ λίγα χέρια». Αυτό αντανακλάται στον Γενικό Κανονισμό Προστασίας Δεδομένων της Ε.Ε. (ευρύτερο γνωστό ως GDPR), τον οποίο χαρακτηρίζει «ρηξικέλευθη και αποτελεσματική» ρύθμιση στο ζωτικό αυτό πεδίο. Αντιθέτως, ο Ισραηλινός νομικός δεν θεωρεί ότι ο εξαναγκασμός εταιρειών με μονοπωλιακή ισχύ να διασπασθούν ή να αλλάξουν την δομή τους έχει αποδειχθεί ιδιαίτερα επιτυχής.
Ἡ κάρτα τοῦ πολίτου, ποὺ ὡς γνωστὸν θὰ εἶναι τὸ «ἀτομικό μας ἀποτύπωμα» σὲ κάθε ὑπηρεσία καὶ συναλλαγή, εἶναι ἤδη ἐδῶ, σὲ μεγάλο της μέρος. Εἶναι ἐκεῖνες οἱ πλαστικὲς καρτοῦλες ποὺ κουβαλᾶμε γιὰ νὰ κάνουμε ἀναλήψεις ἢ γιὰ νὰ ἀγοράσουμε τὰ ἀναγκαία μας εἴδη.
Θέλετε τώρα νά προσθέσουμε τίς ἀλγοριθμικές τους μηχανές;
Θέλετε νά συνυπολογίσουμε καί τήν ῥομποτική τεχνολογία πού τίς ὑποστηρίζει;
Διότι δὲν εἶναι κακὴ ἠ τεχνολογία. Κακοὶ εἶναι αὐτοὶ ποὺ τὴν διαχειρίζονται πρὸς ὄφελός τους γιὰ νὰ κρατοῦν τοὺς λαοὺς σὲ μόνιμο συνθήκη καταστολῆς. .
Δυστυχῶς ξημερώνουν ἐφιαλτικὲς ἡμέρες γιὰ τὴν ἀνρθωπότητα καὶ αὐτὸ δὲν ἀλλάζει ἄμεσα, παρὰ σὲ βάθος χρόνου καὶ κατόπιν πολλῶν παραλλήλων διεργασιῶν.
Τὸ πῶς θὰ σταματήση ὅμως αὐτὸς ὀ ἐφιάλτης πρέπει νὰ εἶναι ὁ δικός μας ἀτομικὸς σκοπὸς κάθε στιγμή.
Εἶναι σὰν νὰ ἔχουμε εἰσέλθη αὐτοβούλως σὲ μίαν φυλακή, τῆς ὁποίας τὰ δεσμὰ ναὶ μὲ εἶναι ἀόρατα, ἀλλὰ εἶναι καὶ δυσβάστακτα. Κι ἐπεὶ δὴ εἶναι ἀκριβῶς ἔτσι, ἐὰν ἐξετάσουμε τὰ δεδομένα μὲ ψυχραιμία, θὰ διαπιστώσουμε ἐπίσης πὼς μόνον μὲ τὴν δική μας ἀπόφασιν αὐτὰ θὰ ἀλλάξουν.
Πηγή: Φιλονόη καὶ Φίλοι...