Νομικά Ζητήματα, Τεχνολογία

Η Ευρώπη βάζει στο στόχαστρο το ChatGPT με αυτό που θα μπορούσε να αποτελέσει σύντομα τον πρώτο νόμο της Δύσης για την τεχνητή νοημοσύνη

Μεταφράζει η Πέννυ Τζανετοπούλου, φοιτήτρια Ψυχολογίας

 

Τι μπορεί να σημαίνει αυτό;

Μία σημαντική επιτροπή νομοθετών στο Ευρωπαϊκό Κοινοβούλιο ενέκρινε έναν – πρώτο στο είδος του- κανονισμό για την τεχνητή νοημοσύνη, πλησιάζοντας στο να τον θεσπίσει ως νόμο.
Αυτή η έγκριση σηματοδοτεί μία εξέλιξη ορόσημο στον αγώνα μεταξύ των κυβερνητικών αρχών για την διαχείριση της τεχνητής νοημοσύνης, η οποία εξελίσσεται με ιλιγγιώδη ταχύτητα. Ο νόμος, γνωστός ως Ευρωπαϊκή Πράξη τεχνητής νοημοσύνης, αποτελεί τον πρώτο νόμο για τα συστήματα τεχνητής νοημοσύνης στην Δύση. Η Κίνα έχει ήδη αναπτύξει προσχέδια κανονισμών, τα οποία έχουν σχεδιαστεί για να ελέγχουν τον τρόπο με τον οποίο οι εταιρείες αναπτύσσουν προϊόντα τεχνητής νοημοσύνης, όπως το ChatGPT.
Ο νόμος υιοθετεί μία προσέγγιση με βάση τον κίνδυνο για να ελέγχει την τεχνητή νοημοσύνη, όπου οι υποχρεώσεις ενός συστήματος είναι ανάλογες με το επίπεδο κινδύνου που ενέχει το εκάστοτε σύστημα.
Οι κανονισμοί καθορίζουν επίσης και τις προδιαγραφές που θα πρέπει να πληρούν οι πάροχοι των “ιδρυτικών μοντέλων”, όπως το ChatGPT, τα οποία έχουν αποτελέσει βασικό σημείο ανησυχίας για τις ρυθμιστικές αρχές, δεδομένου το πόσο προηγμένα εξελίσσονται και του φόβου ότι ακόμα και εξειδικευμένοι εργαζόμενοι θα αντικατασταθούν από αυτά.

Τι προβλέπουν, λοιπόν, οι κανονισμοί;

Η Πράξη για την τεχνητή νοημοσύνη κατηγοριοποιεί τις εφαρμογές της τεχνητής νοημοσύνης σε τέσσερα επίπεδα κινδύνου: μη αποδεκτός κίνδυνος, υψηλός κίνδυνος, περιορισμένος κίνδυνος και ελάχιστος ή και μηδαμινός κίνδυνος.
Οι εφαρμογές μη αποδεκτού κινδύνου απαγορεύονται αυτόματα και δεν μπορούν να αναπτυχθούν στο μπλοκ.

Περιλαμβάνουν:

  • Συστήματα τεχνητής νοημοσύνης που χρησιμοποιούν υποσυνείδητες τεχνικές, ή τεχνικές χειραγώγησης ή παραπλάνησης, με σκοπό να διαστρεβλώσουν συμπεριφορές.
  • Συστήματα τεχνητής νοημοσύνης που εκμεταλλεύονται ευάλωτα σημεία ατόμων ή συγκεκριμένων ομάδων.
  • Συστήματα βιομετρικής κατηγοριοποίησης με βάση ευαίσθητα χαρακτηριστικά γνωρίσματα ή ιδιότητες.
  • Συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται για βαθμολόγηση της κοινωνίας ή αξιολόγηση της αξιοπιστίας.
  • Συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται για αξιολογήσεις κινδύνου, προβλέποντας εγκληματικές πράξεις ή διοικητικά αδικήματα.
  • Συστήματα τεχνητής νοημοσύνης που δημιουργούν ή επεκτείνουν βάσεις δεδομένων για την αναγνώριση προσώπου, με τη συλλογή μη στοχευμένων δεδομένων και πληροφοριών.
  • Συστήματα τεχνητής νοημοσύνης που βρίσκουν συναισθήματα στην επιβολή του νόμου, στην διαχείριση των συνόρων, στον χώρο εργασίας και στην εκπαίδευση.

Αρκετοί νομοθέτες έχουν κάνει έκκληση να γίνουν πιο αυστηρά τα μέτρα προκειμένου να διασφαλιστεί ότι θα καλύπτουν το ChatGPT. Γι’ αυτόν τον λόγο, έχουν επιβληθεί ορισμένες προϋποθέσεις που θα πρέπει να πληρούνται για τα “ιδρυτικά μοντέλα”, όπως τα μεγάλα γλωσσικά μοντέλα και η παραγωγική τεχνητή νοημοσύνη. Οι δημιουργοί των ιδρυτικών μοντέλων θα πρέπει να είναι σε θέση να εφαρμόζουν ελέγχους ασφαλείας, μέτρα διακυβέρνησης των δεδομένων, καθώς και μέτρα μετριασμού του κινδύνου, προτού δημοσιοποιήσουν τα μοντέλα τους. Θα πρέπει επίσης να είναι σε θέση να εξασφαλίζουν ότι τα δεδομένα εκπαίδευσης που χρησιμοποιούν για να ενημερώσουν τα συστήματά τους, δεν παραβιάζουν τον νόμο περί πνευματικών δικαιωμάτων.

“Οι πάροχοι τέτοιων μοντέλων τεχνητής νοημοσύνης, θα πρέπει να λαμβάνουν μέτρα για την αξιολόγηση και την μείωση των κινδύνων για τα θεμελιώδη δικαιώματα, την υγεία, την ασφάλεια, και το περιβάλλον, την δημοκρατία και τους κανόνες δικαίου”, δήλωσε στο CNBC o Ceyhun Pehlivan, σύμβουλος της Linklaters και συν- επικεφαλής της ομάδας πρακτικής τηλεπικοινωνιών, μέσων ενημέρωσης, τεχνολογίας και πνευματικής ιδιοκτησίας μιας δικηγορικής εταιρείας στην Μαδρίτη. “Θα πρέπει επίσης να υπόκεινται σε απαιτήσεις διακυβέρνησης δεδομένων, όπως η εξέταση της καταλληλότητας των πηγών των δεδομένων και των πιθανών προκαταλήψεων”. Είναι σημαντικό να τονιστεί ότι, παρ’ όλο που ο νόμος έχει εγκριθεί από τους νομοθέτες του Ευρωπαϊκού Κοινοβουλίου, απέχει ακόμα πολύ από το να εφαρμοστεί ως νόμος.

Γιατί τώρα;

Οι ιδιωτικές εταιρείες έχουν την ελευθερία να αναπτύξουν την τεχνολογία τεχνητής νοημοσύνης με ιλιγγιώδη ταχύτητα, αναπτύσσοντας συστήματα όπως το ChatGPT της Open AI, με την υποστήριξη της Microsoft, και το Bard της Google. H Google ανακοίνωσε την Τετάρτη μία σειρά από καινούργιες ενημερώσεις της τεχνητής νοημοσύνης, συμπεριλαμβανομένου ενός προηγμένου γλωσσικού μοντέλου που ονομάζεται PaLM 2, το οποίο, όπως υποστηρίζει η εταιρεία, ξεπερνά άλλα κορυφαία συστήματα σε ορισμένες εργασίες.

Τα καινοτόμα chatbot τεχνητής νοημοσύνης, όπως το ChatGPT, έχουν συναρπάσει πολλούς τεχνολόγους και ακαδημαϊκούς με την ικανότητά τους να παράγουν ανθρώπινες απαντήσεις στις προτροπές των χρηστών, οι οποίες παράγονται από μεγάλα γλωσσικά μοντέλα, εκπαιδευμένα σε τεράστιες ποσότητες δεδομένων. Η τεχνολογία της τεχνητής νοημοσύνης, ωστόσο, υπάρχει εδώ και χρόνια και είναι ενσωματωμένη σε περισσότερες εφαρμογές και συστήματα απ’ ό,τι ίσως νομίζουμε. Για παράδειγμα, καθορίζει ποια viral βίντεο ή φωτογραφίες φαγητών βλέπουμε στο TikTok ή στο Instagram. Ο στόχος των προτάσεων της ΕΕ είναι να παράσχει ορισμένες κατευθυντήριες γραμμές για τις εταιρείες και τους οργανισμούς που χρησιμοποιούν τεχνητή νοημοσύνη.

Η αντίδραση της τεχνολογικής βιομηχανίας

Αυτοί οι κανονισμοί, λοιπόν, έχουν προκαλέσει ανησυχίες στον τομέα της τεχνολογίας.
Η Ένωση Βιομηχανίας Υπολογιστών και Επικοινωνιών (Computer and Communications Industry Association, CCIA) δήλωσε ότι ανησυχεί για το πεδίο εφαρμογής της Πράξης για την τεχνητή νοημοσύνη, καθώς έχει διευρυνθεί υπερβολικά και μπορεί να συλλάβει μορφές τεχνητής νοημοσύνης που δεν είναι επικίνδυνες.
“Είναι ανησυχητικό να βλέπουμε ότι ευρείες κατηγορίες χρήσιμων εφαρμογών τεχνητής νοημοσύνης – οι οποίες ενέχουν πολύ περιορισμένο έως και μηδαμινό κίνδυνο- θα πρέπει τώρα να πληρούν πολύ αυστηρές προδιαγραφές, ενώ είναι πιθανό ακόμα και να απαγορευτούν στην Ευρώπη”, δήλωσε στο CNBC, μέσω email, ο Boniface de Champris, υπεύθυνος πολιτικής στο CCIA Europe.
“Η αρχική πρόταση της Ευρωπαϊκής Επιτροπής για την Πράξη της τεχνητής νοημοσύνης υιοθετεί μία προσέγγιση με βάση τον κίνδυνο, ρυθμίζοντας συγκεκριμένα συστήματα τεχνητής νοημοσύνης που ενέχουν ολοφάνερο κίνδυνο”, πρόσθεσε ο de Champris.
“Οι ευρωβουλευτές έχουν τώρα εισαγάγει κάθε είδους τροποποιήσεις που αλλάζουν την ίδια την φύση της Πράξης για την τεχνητή νοημοσύνη, η οποία τώρα υποθέτει ότι πολύ ευρείες κατηγορίες της τεχνητής νοημοσύνης είναι εγγενώς επικίνδυνες”.

Τι λένε οι ειδικοί

H Dessi Savova, επικεφαλής της τεχνολογικής ομάδας στην ηπειρωτική Ευρώπη της δικηγορικής εταιρείας Clifford Chance, δήλωσε ότι οι κανονισμοί της ΕΕ θα μπορούσαν να θέσουν ένα “παγκόσμιο πρότυπο” για την ρύθμισης της τεχνητής νοημοσύνης. Ωστόσο, πρόσθεσε ότι άλλες δικαιοδοσίες, συμπεριλαμβανομένης της Κίνας, των ΗΠΑ και του Ηνωμένου Βασιλείου αναπτύσσουν γρήγορα τις δικές τους απαντήσεις. “H μεγάλη εμβέλεια των προτεινόμενων κανονισμών της τεχνητής νοημοσύνης σημαίνει εγγενώς ότι οι χρήστες τεχνητής νοημοσύνης σε όλες τις γωνιές του κόσμου πρέπει να ενδιαφερθούν”, δήλωσε η Savova στο CNBC μέσω email. “To κατάλληλο ερώτημα είναι αν η Πράξη Τεχνητής Νοημοσύνης θα θέσει τις μοναδικές προδιαγραφές για την τεχνητή νοημοσύνη. Η Κίνα, οι ΗΠΑ και το Ηνωμένο Βασίλειο, για να αναφέρουμε μερικές από αυτές, καθορίζουν τις δικές τους πολιτικές και ρυθμιστικές προσεγγίσεις για την τεχνητή νοημοσύνη. Αδιαμφισβήτητα, όλοι θα παρακολουθούν στενά τις διαπραγματεύσεις για την Πράξη Τεχνητής Νοημοσύνης, ούτως ώστε να μπορούν να προσαρμόσουν τις δικές τους προσεγγίσεις”. H Savova πρόσθεσε ότι το τελευταίο προσχέδιο της Πράξης Τεχνητής Νοημοσύνης από το Κοινοβούλιο θα ενσωμάτωνε στον νόμο πολλές από τις ηθικές αρχές της τεχνητής νοημοσύνης, για τις οποίες πιέζουν οι οργανώσεις.

H Sarah Chander, ανώτερη σύμβουλος πολιτικής στην European Digital Rights, μία ομάδα εκστρατείας για τα ψηφιακά δικαιώματα με έδρα τις Βρυξέλλες, δήλωσε ότι οι νόμοι θα προϋποθέτουν τα ιδρυτικά μοντέλα, όπως το ChatGPT, να “υποβάλλονται σε δοκιμές, τεκμηρίωση και απαιτήσεις διαφάνειας”. “Παρ’ όλο που αυτές οι απαιτήσεις διαφάνειας δεν πρόκειται να εξαλείψουν τις δομικές και οικονομικές ανησυχίες για την ανάπτυξη αυτών των ατέρμονων συστημάτων τεχνητής νοημοσύνης, θα απαιτείται από τις τεχνολογικές εταιρείες να αποκαλύπτουν τις ποσότητες της υπολογιστικής ισχύος που απαιτούνται για την ανάπτυξή τους”, δήλωσε στο CNBC η Chander.

“Την δεδομένη στιγμή υπάρχουν αρκετές πρωτοβουλίες για την ρύθμιση της παραγωγικής τεχνητής νοημοσύνης σε όλο τον κόσμο, για παράδειγμα στην Κίνα και τις ΗΠΑ”, δήλωσε ο Pehlivan. “Ωστόσο, η Πράξη της ΕΕ για την τεχνητή νοημοσύνη είναι πιθανό να διαδραματίσει καθοριστικό ρόλο στην ανάπτυξη τέτοιων νομοθετικών πρωτοβουλιών σε όλο τον κόσμο, και να οδηγήσει την ΕΕ στο να γίνει και πάλι ο υπεύθυνος καθορισμού προτύπων στην διεθνή σκηνή, όπως είχε συμβεί και με τον Γενικό Κανονισμό για την Προστασία Δεδομένων”.

Πηγή:
https://www.cnbc.com/2023/05/15/eu-ai-act-europe-takes-aim-at-chatgpt-with-landmark-regulation.html