Ασφάλεια διαδικτύου, Τεχνητή Νοημοσύνη

Δεν είστε υπεύθυνοι για το δικό σας διαδικτυακό απόρρητο

Μεταφράζει η Παπασμηνασιάν Κατερίνα, φοιτήτρια Εγκληματολογικής Ψυχολογίας

Το 2010, στην απονομή των βραβείων TechCrunch, ο Mark Zuckerberg είπε στο ακροατήριο ότι οι νέοι άνθρωποι -κυρίως οι χρήστες των social media- δεν ενδιαφέρονται πλέον για το ιδιωτικό απόρρητο. “Οι άνθρωποι νιώθουν πολύ  άνετα, όχι μόνο με το να μοιράζονται περισσότερες και διαφόρων ειδών πληροφορίες, αλλά και με το να είναι και πιο ανοιχτοί με περισσότερους ανθρώπους”. Ο κοινωνικός αυτός κανόνας είναι κάτι που, απλώς, έχει εξελιχθεί με την πάροδο του χρόνου”. Καθώς η δήλωση αυτή, προφανώς, δεν ανταποκρίνεται στην σημερινή πραγματικότητα, αντανακλά την κοινή πεποίθηση ότι η παραβίαση του ιδιωτικού απορρήτου συμβαίνει, όταν τα άτομα φανερώνουν τις δικές τους πληροφορίες. Με άλλα λόγια, όταν κάτι που είναι δημοσιευμένο στο Reddit ή στο TikTok γίνεται viral, ή διαρρέεται μία γυμνή φωτογραφία, παρουσιάζεται σαν να είναι λάθος του ανθρώπου που έκανε την σχετική δημοσίευση. Αυτό το μοντέλο εξατομικευμένης ευθύνης είναι πολύ επίμονο. Επίσης, είναι εντελώς λανθασμένο. Και είναι άσχετο με την εποχή της  παραγωγικής τεχνητής νοημοσύνης (generative artificial intelligence, generative AI).

Η παραγωγική τεχνητή νοημοσύνη εξαλείφει πλήρως την ιδέα της ατομικής ευθύνης για το απόρρητο,  καθώς δεν μπορεί κανείς να ελέγξει την πρόσβαση αυτών των αλγορίθμων στις πληροφορίες του, ή τι κάνουν με αυτές. Εργαλεία όπως το ChatGPT, Dall-E, και Google Bard εκπαιδεύονται σε δεδομένα που συλλέγονται χωρίς συγκατάθεση ή ακόμα και χωρίς προειδοποίηση. Στην χειρότερη περίπτωση, τα σύνολα εκπαίδευσης απορροφούν τεράστιες ποσότητες ψηφιακών πληροφοριών και τις συνδυάζουν με ένα σύνολο δεδομένων που χρησιμεύει ως πρώτη ύλη για την generative AI. Καθώς οι τεχνολογικές εταιρίες προσπαθούν να ενσωματώσουν την geverative AI σε κάθε πιθανό προϊόν, από μηχανές αναζήτησης, έως παιχνίδια, ακόμα και στρατιωτικές συσκευές, είναι αδύνατο να γνωρίζουμε που θα καταλήξει όλη αυτή η παραγωγή ή πως μπορεί να ερμηνευτεί. Οι προκάτοχοι των μοντέλων παραγωγικής τεχνητής νοημοσύνης, ή αλλιώς οι “data brokers” (εταιρείες που παραβίαζαν την ιδιωτική ζωή των χρηστών δίνοντας πρόσβαση στις προσωπικές τους πληροφορίες σε τρίτους)  έψαχναν, επίσης, το διαδίκτυο και συνέθεταν τεράστιους φακέλους πληροφοριών για άτομα, αλλά τα δεδομένα αυτά δεν είναι διαθέσιμα για τον μέσο άνθρωπο δωρεάν ούτε είναι ενσωματωμένα σε μηχανές αναζήτησης και επεξεργαστές κειμένων. Η ευρεία διαθεσιμότητα των μοντέλων παραγωγικής τεχνητής νοημοσύνης επιτείνει τις πιθανές παραβιάσεις απορρήτου και θέτει περισσότερους ανθρώπους σε κίνδυνο.

Οι τεράστιες βάσεις δεδομένων που χρησιμοποιούνται από τα μοντέλα παραγωγικής τεχνητής νοημοσύνης περιλαμβάνουν πληροφορίες για ανθρώπους, οι οποίες δεν έχουν παρασχεθεί, δημιουργηθεί ή ακόμη και δεν είναι γνωστό ότι είναι διαθέσιμες. Δημόσια αρχεία σχετικά με γάμους, υποθήκες και εγγραφές ψηφοφόρων είναι πλέον φανερά όπως είναι οι ειδήσεις, τα βιογραφικά υπαλλήλων και οι σελίδες της Βικιπαίδειας. Οι βάσεις δεδομένων, επίσης, περιλαμβάνουν εκατομμύρια φωτογραφίες και videos. Η εφαρμογή Dall-E, για παράδειγμα, έχει βασιστεί σε φωτογραφίες που έχουν συλλεχθεί από τα social media, τις μηχανές αναζήτησης και ιστοτόπους που φιλοξενούν εικόνες. Έτσι αν βρίσκεστε στο φόντο μίας φωτογραφίας του Flickr από το 2007, η εικόνα σας θα μπορούσε να χρησιμοποιηθεί σε έναν αλγόριθμο. Κανείς δεν φαίνεται να γνωρίζει τι υλικό χρησιμοποιείται στον όγκο των δεδομένων και δεν υπάρχει τρόπος να ελεγχθεί ή να εποπτευθεί. Όταν το ChatGPT γράφει ένα ανακριβές βιογραφικό για κάποιον, δεν μπορεί κανείς να γνωρίζει από που προήλθαν οι πληροφορίες, είτε είναι ψευδείς είτε σωστές. Έχουμε συνηθίσει να συγχέουμε το απόρρητο με τον ατομικό έλεγχο των πληροφοριών, αλλά είναι αδύνατο να ρυθμίσουμε τον τρόπο με τον οποίο χρησιμοποιούνται οι προσωπικές μας πληροφορίες, εάν δεν γνωρίζουμε καν την προέλευσή τους.

Οι ανθρωπολόγοι και οι νομικοί γνωρίζουν εδώ και χρόνια ότι το απόρρητο δεν μπορεί να ελεγχθεί από τα ίδια τα άτομα, εν μέρει επειδή εν γνώση τους μοιράζονται πληροφορίες μέσω του διαδικτύου. Με άλλα λόγια, οι άνθρωποι μιλούν ο ένας για τον άλλον, τόσο εντός όσο και εκτός διαδικτύου. Δεν υπάρχει τρόπος να τεθούν όρια σε αυτό. Μπορεί κάποιος να ζητήσει από τους φίλους του να μην ανεβάσουν φωτογραφίες των παιδιών του στο Instagram ή να μην τον αναφέρουν στο TikTok, αλλά εξακολουθεί να μην μπορεί να κρυφτεί από το διαδίκτυο. Οι παραβιάσεις του απορρήτου συμβαίνουν συχνά επειδή οι πληροφορίες που παρέχονται σε ένα περιβάλλον με συγκεκριμένους κανόνες και προσδοκίες μεταφέρονται και σε κάποιο άλλο και ερμηνεύονται διαφορετικά.

Οι νέες τεχνολογίες θέτουν όλο και περισσότερο σε κίνδυνο το διαδικτυακό απόρρητο. Η ιατροδικαστική γενεαλογία, για παράδειγμα, επιτρέπει στην αστυνομία να ταυτοποιήσει υπόπτους εξετάζοντας γενετικά στοιχεία που συλλέγονται από μακρινούς συγγενείς. Μπορεί κανείς να επιλέξει  να μην χρησιμοποιήσει την ιστοσελίδα Anchestry.com, αλλά δεν μπορεί να σταματήσει έναν μακρινό συγγενή- τον οποίο πιθανώς να μην γνώριζε- από το να κάνει το ίδιο. Το Big Data το οποίο χρησιμοποιεί τεράστιο όγκο δεδομένων με παρόμοιους τρόπους, βρίσκει συνδέσεις ανάμεσα σε φίλους, συγγενείς, ακόμη και μακρινούς γνωστούς, γεγονός που γίνεται εξαιρετικά ανησυχητικό όταν ενσωματώνεται σε αλγόριθμους πρόβλεψης της αστυνόμευσης ή αξιολόγησης κινδύνου. Οι άνθρωποι δεν μπορούν να κάνουν τίποτα να αποτρέψουν τέτοιες παραβιάσεις του ιδιωτικού απορρήτου.

Η παραγωγική τεχνητή νοημοσύνη εντείνει αυτές τις ανησυχίες που αφορούν την προστασία της ιδιωτικής ζωής στο διαδίκτυο. Αυτό θέτει σε κίνδυνο την ικανότητα των ατόμων να εργάζονται για την προστασία της ιδιωτικής ζωής, δηλαδή τις μεθόδους και τις στρατηγικές που χρησιμοποιούν οι περισσότεροι για να διατηρήσουν ένα αποδεκτό επίπεδο ιδιωτικότητας. Τα αποτελέσματα της παραγωγικής τεχνητής νοημοσύνης είναι εντελώς αποκομμένα από την αρχική τους πηγή με τρόπους που άλλοτε ήταν αδιανόητοι. Είναι εντελώς διαφορετικό το να υπάρξει διαρροή ιδιωτικών συνομιλιών και άλλο το να χρησιμοποιείται ολόκληρο το Reddit ως πηγή για παραγωγή μιας ρομποτικής ποίησης και κακών εργασιών στα πανεπιστήμια. Οι πληροφορίες που παρέχονται σε ένα πλαίσιο μπορούν να επαναπροσδιοριστούν πλήρως και να αναμειχθούν, αλλάζοντας το νόημα τους και παραβιάζοντας αυτό που η φιλόσοφος Helen Nissenbaum ονομάζει “ακεραιότητα του πλαισίου”. Πως μπορεί ένα άτομο να το αποτρέψει αυτό;

Επιπλέον, η παραγωγική τεχνητή νοημοσύνη μπορεί να επιτρέψει κάθε είδους “δημιουργικές” παραβιάσεις του ιδιωτικού απορρήτου. Μπορεί να μην είναι δυνατό να πείσει κανείς το ChatGPT να του δώσει μια συγκεκριμένη διεύθυνση, αλλά θα του εξηγήσει ευχαρίστως πως να τη βρει στο διαδίκτυο. Τα “deepfakes” είναι ένα εντελώς διαφορετικό ζήτημα. Τι θα μπορούσε να αποτελεί μεγαλύτερη παραβίαση απορρήτου από το να μιμηθεί κανείς το στυλ, την όψη ή ακόμη και την ομιλία ενός άλλου προσώπου; Αν κάποιος ανεβάσει μερικές παλιές ηχογραφήσεις της φωνής του σε ένα εργαλείο που ονομάζεται Descript, λίγες ώρες αργότερα θα έχει μια συνθετική εκδοχή της φωνής του, την οποία θα μπορεί να χρησιμοποιήσει για να πει το οτιδήποτε (μέσα στα πλαίσια της δωρεάν δοκιμής). Ενώ ορισμένα δημοφιλή εργαλεία παραγωγικής τεχνητής νοημοσύνης περιέχουν “προστατευτικές δικλείδες ασφαλείας”, για να αποτρέψουν τις πιο διαβόητες παραβιάσεις απορρήτου, άλλα δεν το κάνουν. Τα εργαλεία τεχνητής νοημοσύνης έχουν πρόσβαση σε δεδομένα που αν χρησιμοποιηθούν με αθέμιτο τρόπο, θα μπορούσαν να χαρτογραφήσουν ολόκληρο το κοινωνικό δίκτυο κάποιου, καθώς και την οικονομική του κατάσταση ή τα θέματα υγείας του, ακόμα και το αν είναι ευάλωτος σε απάτες.

Παρόλο που υπάρχει γενικότερη γνώση της διαφημιστικής εκστρατείας για τα μοντέλα τεχνητής νοημοσύνης, υπάρχει διαφορά ανάμεσα στην παραγωγική τεχνητή νοημοσύνη και σε άλλες τεχνολογίες με βαθιές επιπτώσεις στην ιδιωτική ζωή. Οι κοινωνικές πλατφόρμες ελέγχονται από διακριτές οντότητες και καταλαβαίνουμε πως λειτουργούν. Κανείς δεν καταλαβαίνει πως δουλεύουν τα μεγάλα γλωσσικά μοντέλα (large language models, LLMs), ούτε καν οι άνθρωποι που τα ερευνούν και τα κατασκευάζουν. Αλλάζουν και καινοτομούν με ριζικά διαφορετικό ρυθμό και μπορούν να χρησιμοποιηθούν από ανθρώπους με διαφορετικά ηθικά πρότυπα από αυτά των εκάστοτε χρηστών. Η παραγωγική τεχνητή νοημοσύνη φανερώνει τις ελλείψεις του ξεπερασμένου μοντέλου ατομικής ευθύνης σχετικά με το απόρρητο, για αυτό είναι καιρός να αναγνωρίσουμε τη ματαιότητα του και να το ξεπεράσουμε.

Πηγή:

https://www.wired.com/story/you-are-not-responsible-for-your-own-online-privacy/