Όταν ο CTO της Oracle, Larry Ellison, παρουσίασε το όραμά του για ένα παγκόσμιο δίκτυο παρακολούθησης μέσω AI που θα προτρέπει τους πολίτες να συμπεριφέρονται «σωστά», οι επικριτές έσπευσαν να κάνουν συγκρίσεις με το «1984» του George Orwell και να χαρακτηρίσουν το επιχειρηματικό του πλάνο ως δυστοπικό.
Η μαζική παρακολούθηση αποτελεί παραβίαση της ιδιωτικότητας, έχει αρνητικές ψυχολογικές επιπτώσεις και αποθαρρύνει τους ανθρώπους από τη συμμετοχή τους σε διαδηλώσεις.
Ωστόσο, το πιο ανησυχητικό στο όραμα του Ellison είναι ότι η μαζική παρακολούθηση μέσω AI είναι ήδη πραγματικότητα. Στους Θερινούς Ολυμπιακούς Αγώνες του 2024, η γαλλική κυβέρνηση ανέθεσε σε τέσσερις εταιρείες τεχνολογίας—Videtics, Orange Business, ChapsVision και Wintics—την παρακολούθηση σε όλο το Παρίσι, χρησιμοποιώντας ανάλυση βίντεο μέσω AI για τον έλεγχο της συμπεριφοράς και την ειδοποίηση των αρχών ασφαλείας.
Όπως αναφέρει το Cryptoslate ,η αμφιλεγόμενη αυτή πολιτική κατέστη δυνατή χάρη σε νόμο που ψηφίστηκε το 2023, επιτρέποντας τη χρήση λογισμικού AI για την ανάλυση δεδομένων του κοινού. Η Γαλλία είναι η πρώτη χώρα της ΕΕ που νομιμοποιεί την παρακολούθηση μέσω AI, αλλά η ανάλυση βίντεο δεν είναι κάτι νέο.
Ιστορικά, οι κυβερνήσεις χρησιμοποιούν τεχνολογικές προόδους για να ενισχύσουν τα συστήματα παρακολούθησης, πολλές φορές αναθέτοντας την εκτέλεση σε ιδιωτικές εταιρείες. Στους Ολυμπιακούς Αγώνες του Παρισιού, οι εταιρείες τεχνολογίας είχαν την ευκαιρία να δοκιμάσουν τα μοντέλα AI τους σε μεγάλης κλίμακας δημόσιες εκδηλώσεις, αποκτώντας πρόσβαση σε πληροφορίες σχετικά με τη συμπεριφορά εκατομμυρίων ατόμων.
Οι υπερασπιστές της ιδιωτικότητας υποστηρίζουν πως η παρακολούθηση αποτρέπει τους πολίτες από το να ζουν ελεύθερα και χωρίς άγχος. Οι υπεύθυνοι χάραξης πολιτικής υποστηρίζουν ότι τέτοια μέτρα λαμβάνονται για την προστασία της δημόσιας ασφάλειας.

Αυτό μας φέρνει σε μια από τις μεγαλύτερες προκλήσεις της γενιάς μας: την αποθήκευση ευαίσθητων πληροφοριών διαδικτυακά και τη διαχείριση των δεδομένων αυτών μεταξύ διαφορετικών μερών. Ανεξάρτητα από τον σκοπό της συλλογής δεδομένων, είτε για λόγους ασφάλειας είτε για έξυπνες πόλεις, είναι απαραίτητο να υπάρχει ένα ασφαλές περιβάλλον για ανάλυση δεδομένων.
Η αποκεντρωμένη εμπιστευτική υπολογιστική (DeCC) προτείνει μια λύση σε αυτό το πρόβλημα. Τα περισσότερα μοντέλα εκπαίδευσης AI, όπως αυτό της Apple, χρησιμοποιούν Περιβάλλοντα Αξιόπιστης Εκτέλεσης (TEEs) που εξαρτώνται από μια αλυσίδα προμήθειας με μεμονωμένα σημεία αποτυχίας, απαιτώντας εμπιστοσύνη τρίτων. Η DeCC στοχεύει στην κατάργηση αυτών των σημείων αποτυχίας, δημιουργώντας ένα αποκεντρωμένο σύστημα για την επεξεργασία δεδομένων.
Επιπλέον, η DeCC θα μπορούσε να επιτρέψει την ανάλυση δεδομένων χωρίς την αποκρυπτογράφησή τους. Ένα εργαλείο ανάλυσης βίντεο σε δίκτυο DeCC θα μπορούσε να εντοπίζει μια απειλή χωρίς να εκθέτει ευαίσθητες πληροφορίες για τα άτομα.
Υπάρχουν διάφορες τεχνικές αποκεντρωμένης εμπιστευτικής υπολογιστικής που δοκιμάζονται σήμερα, όπως οι Μηδενικές Γνώσεις (ZKPs), η Ομομορφική Κρυπτογράφηση (FHE) και οι Πολυμερείς Υπολογισμοί (MPC). Το MPC φαίνεται να ξεχωρίζει, καθώς επιτρέπει διαφανή εκτέλεση με επιλεκτική αποκάλυψη.
Συνοπτικά, η DeCC παρέχει τη δυνατότητα εκπαίδευσης μοντέλων σε ευαίσθητα δεδομένα, διατηρώντας τα κρυπτογραφημένα καθ’ όλη τη διαδικασία. Σε ένα περιβάλλον παρακολούθησης, αυτή η τεχνολογία θα μπορούσε να εισαγάγει διαφάνεια και υπευθυνότητα ενώ θα κρατά την πλειονότητα των δεδομένων προστατευμένα.
Παρόλο που η DeCC βρίσκεται ακόμα σε πειραματικό στάδιο, φέρνει στην επιφάνεια τους κινδύνους των παραδοσιακών συστημάτων και προσφέρει μια εναλλακτική μέθοδο κρυπτογράφησης. Καθώς η μηχανική μάθηση ενσωματώνεται σε τομείς όπως η ιατρική, η ψυχαγωγία και η αστική ανάπτυξη, η DeCC θα είναι απαραίτητη για την προστασία της ιδιωτικότητας και των δεδομένων στο μέλλον.
Για να αποφύγουμε ένα δυστοπικό μέλλον, πρέπει να αποκεντρώσουμε την τεχνητή νοημοσύνη.