Η ταχύτατη ανάπτυξη της τεχνητής νοημοσύνης (ΤΝ) έχει προκαλέσει σημαντικές αλλαγές σε πολλούς τομείς της κοινωνίας και της οικονομίας. Η Ευρωπαϊκή Ένωση (ΕΕ), αναγνωρίζοντας τις προκλήσεις και τις ευκαιρίες που φέρνει η ΤΝ, δημιούργησε μια εξειδικευμένη ομάδα για τη διαχείριση της λειτουργίας της. Η ομάδα δημιουργήθηκε τον Μάιο του 2018 και είναι γνωστή ως η Ευρωπαϊκή Επιτροπή Προστασίας Δεδομένων (EDPB). Πρόσφατα, η ίδια ομάδα που ασχολείται με το φαινόμενο του ChatGPT και της OpenAI εδώ και ένα χρόνο, ανακοίνωσε τον οδηγό για την προστασία των προσωπικών δεδομένων. Ωστόσο, τα μέλη παραμένουν αναποφάσιστα για κρίσιμα νομικά ζητήματα, όπως η νομιμότητα και η δικαιοσύνη στη διαδικασία επεξεργασίας περιεχομένων του OpenAI.
Η ομάδα μπορεί, επίσης, να διατάξει την παύση της πλατφόρμας αν επιβεβαιώσει ότι η επεξεργασία περιεχομένου δε συμμορφώνεται στη νέα πραγματικότητα που προσπαθούν να θεσπίσουν για τη χρήση και τα όρια της τεχνητής νοημοσύνης, συν τη μη προσαρμογή στον Γενικό Κανονισμό για την Προστασία των Δεδομένων (General Data Protection Regulation GDPR).
Παράπονα και επιβολές στο OpenAI
Μετά την ύπαρξη παραπόνων από Ευρωπαίους πολίτες, κύρια περιστατικά στην Πολωνία και την Ιταλία, τέθηκε στο chatbot του ChatGPT προσωρινή απαγόρευση επεξεργασίας δεδομένων από την Αρχή προστασίας ιδιωτικότητας της Ιταλίας, κατόπιν απόφασης για τη λήψη μέτρων μη συμμόρφωσης στο GDPR. Επανήλθε ωστόσο, αφότου η εταιρεία έκανε αλλαγές στις πληροφορίες που παρέχει στους χρήστες, ως απάντηση σε μια λίστα αιτημάτων από την επιτροπή προστασίας δεδομένων.
Σύμφωνα με το GDPR, κάθε ψηφιακή οντότητα που έχει σκοπό να αναζητήσει και να επεξεργαστεί δεδομένα για ανθρώπους, πρέπει να φροντίσει να έχει μια νομική κάλυψη, ένα πλαίσιο στο οποίο θα προστατεύει τους χρήστες παράλληλα με την επεξεργασία που δραστηριοποιεί. Ο κανονισμός θέτει έξι τέτοια πλαίσια, τα οποία στην πλειοψηφία τους δεν υποστηρίζονται από την OpenAI. Συνεπώς, η επιτροπή προστασίας δεδομένων της Ιταλίας ενημέρωσε την επιχείρηση πως δεν μπορεί να κάνει χρήση των δεδομένων από το διαδίκτυο, συμπεριλαμβανομένων και των κοινωνικών δικτύων για την εκπλήρωση της εκπαίδευσης της ΤΝ, χωρίς την συγκατάθεση των ίδιων των ατομικοτήτων.
Η κίνηση αυτή, άφησε μόνο δύο τελικές επιλογές, τη συναίνεση των χρηστών για πρόσβαση στις ιδιωτικές πληροφορίες τους, αλλά και την «πολιτική απορρήτου», που δίνει το δικαίωμα εναντίωσης των χρηστών οποιαδήποτε στιγμή στη χρήση των προσωπικών τους δεδομένων, ως εκπαιδευτικής ανάγκης από την ΤΝ.
Ο ρόλος της ομάδας διαχείρισης ΤΝ
Ο οδηγός που δημοσιεύτηκε από την ομάδα διαχείρισης ουσιαστικά αναλύει το πολύπλοκο νομικό ζήτημα που έγκειται, επισημαίνοντας ότι το ChatGPT χρειάζεται μια νομική βάση καθ’όλη τη διάρκεια της επεξεργασίας των προσωπικών δεδομένων και να συμπεριλαμβάνει λύσεις όπως απαραίτητο φιλτράρισμα πληροφοριών (προ-επεξεργασία δεδομένων), εκπαίδευση της ΤΝ ως προς τις απαντήσεις που θα μπορεί να διαχειρίζεται, τα όρια που θα πρέπει να θέτει κατά τη διαδικασία επεξεργασίας δεδομένων.
Οι παραπάνω προτάσεις της ομάδας βρίσκουν δυσκολία στο ότι αποτελούν «παράδοξα ρίσκα» για τα ανθρώπινα δικαιώματα, τονίζοντας πως η κολοσσιαία κλίμακα και ο αυτοματισμός της συλλογής δεδομένων από το διαδίκτυο, φέρει ως αποτέλεσμα την αποθήκευση περισσότερων πληροφοριών και κυρίως ευαίσθητο περιεχόμενο όπως πολιτικές απόψεις, θρησκεία, σεξουαλικότητα, ιατρικό ιστορικό των χρηστών, κάτι που μάλιστα ονομάζει «ειδική κατηγορία δεδομένων».
Επίσης, η ομάδα κάνει ξεκάθαρο το γεγονός ότι αρκετές πληροφορίες χρηστών παρόλο που είναι δημόσιες, δε σημαίνει ότι μπορούν να χρησιμοποιηθούν από τρίτες οντότητες ως ελεύθερο υλικό για το ευρύ κοινό, χωρίς την απαραίτητη συγκατάθεση. Έτσι λοιπόν, η OpenAI θα πρέπει να αποδείξει ότι χρειάζεται να επεξεργαστεί συγκεκριμένα δεδομένα, με περιορισμούς σε όσα είναι πράγματι αναγκαία, ισοσταθμίζοντας τα νομικά συμφέροντα και τα δικαιώματα των χρηστών. Πρόταση μάλιστα που τέθηκε, είναι ο περιορισμός των πηγών, όπως τα κοινωνικά δίκτυα για να συλλέγονται λιγότερα προσωπικά δεδομένα. Συνδυαστικά, κρίνεται απαραίτητο να υπάρχουν μέτρα για τη διαγραφή ή την ανώνυμη καταγραφή προσωπικών δεδομένων που έχουν συλλεχθεί κατά βάση κατά τη διαδικασία εκπαίδευσης της ΤΝ.
Επιπρόσθετα, είναι σημαντικό να σημειωθεί πως οι χρήστες χρειάζεται να είναι προσεχτικά ενημερωμένοι για τους σκοπούς εκπαίδευσης της ΤΝ, ώστε να μπορούν να προβλέψουν τις συνέπειες της όλης διαδικασίας και να γνωρίζουν την επίδραση της άδειας που παραχώρησαν. Έχουν μερίδιο ευθύνης, όπως ακριβώς και οι επιτροπές προστασίας δεδομένων, με τις δικές τους αξιολογήσεις και αποφάσεις πάνω στη δράση της OpenAI.
Όροι διαφάνειας
Σχετικά με την υποχρέωση διαφάνειας, η ομάδα είναι σύμφωνη με την OpenAI να ενημερώνει τα άτομα σχετικά με τα δεδομένα που συλλέγονται για αυτά για την εκπαίδευση του λογισμικού προγράμματος. Επίσης, ο οδηγός αγγίζει το ζήτημα της διατήρησης αληθινού περιεχομένου και όχι επινοημένου για τη διατήρηση της αξιοπιστίας και της ακρίβειας των παρεχόμενων πληροφοριών. Τέλος, όσον αφορά την αρχή της δικαιοσύνης του GDPR, ο οδηγός της ομάδας διαχείρισης τονίζει ότι, « η OpenAI παραμένει υπεύθυνη για τη συμμόρφωση με το GDPR και δεν πρέπει να υποστηρίζει ότι η εισαγωγή συγκεκριμένων προσωπικών δεδομένων ήταν απαγορευμένη εξ αρχής».
Αναφορικά με τα δικαιώματα των χρηστών, η έκθεση ορίζει ως «επιτακτική» τη δυνατότητα των πολιτών να ασκούν το δικαίωμα τους εύκολα. Έχει όμως παρατηρήσει δυσκολίες στο να επιτρέπει στους χρήστες να διορθώνουν οι ίδιοι τις προσωπικές πληροφορίες τους, καθώς προσφέρει μόνο ακύρωση και διαγραφή της αναπαραγωγής στις απαντήσεις.
Περισσότερες πρακτικές οδηγίες δεν προσφέρονται ακόμα από την ομάδα διαχείρισης ή αναλυτικότερη καθοδήγηση ως προς τη σωστότερη χρήση της OpenAI, αλλά έχει υπάρξει σημαντική συνεισφορά στα πρώτα βήματα οριοθέτησης της χρήσης της ΤΝ και διασφαλίζεται λίγο περισσότερο η προστασία των χρηστών έμμεσα. Η θετική στάση της ομάδας μέχρι τώρα έχει δείξει πως ο δρόμος για την τελική έκθεση κανόνων είναι κοντά, πάντα σε συνεργασία με τα Ευρωπαϊκά κράτη.
Πηγές:
https://www.edpb.europa.eu/system/files/2024-05/edpb_20240523_report_chatgpt_taskforce_en.pdf
Ονομάζομαι Στέλλα Φουλούλη και είμαι απόφοιτη του τμήματος ψυχολογίας στο Εθνικό και Καποδιστριακό Πανεπιστήμιο Αθηνών. Έχω ασχοληθεί στο παρελθόν με την αρθρογραφία και τα τελευταία δύο χρόνια ασχολούμαι με την ποίηση και τη φωτογραφία. Επιπρόσθετα την περίοδο αυτή εργάζεται εθελοντικά στο Ινστιτούτο Κυβερνοασφάλειας (CSIi) συμμετέχοντας σε δράσεις του ινστιτούτου και στη συγγραφή άρθρων.