Εγκλήματα, Τεχνολογία

Η Ευρώπη κρούει τον κώδωνα του κινδύνου για το ChatGPT

Μεταφράζει η Χρυσάνθη Παράγιου

Το ChatGPT έχει καταγράψει πάνω από 1,6 δισεκατομμύρια επισκέψεις από τον Δεκέμβριο.

ΒΑΡΚΕΛΩΝΗ – Θορυβημένες από τους αυξανόμενους κινδύνους που εγκυμονούν οι πλατφόρμες δημιουργικής τεχνητής νοημοσύνης (AI) όπως το ChatGPT, οι ρυθμιστικές αρχές και οι υπηρεσίες επιβολής του νόμου στην Ευρώπη αναζητούν τρόπους για να επιβραδύνουν την αλόγιστη βιασύνη της ανθρωπότητας προς το ψηφιακό μέλλον.

Με λίγες προστατευτικές μπάρες, η ChatGPT, η οποία απαντά σε ερωτήματα χρηστών με τη μορφή δοκιμίων, ποιημάτων, υπολογιστικών φύλλων και κώδικα υπολογιστή, κατέγραψε πάνω από 1,6 δισεκατομμύρια επισκέψεις από τον Δεκέμβριο. Η Europol, ο Οργανισμός Συνεργασίας της Ευρωπαϊκής Ένωσης για την επιβολή του νόμου, προειδοποίησε στα τέλη Μαρτίου ότι το ChatGPT, μία μόνο από τις χιλιάδες πλατφόρμες τεχνητής νοημοσύνης που χρησιμοποιούνται σήμερα, μπορεί να βοηθήσει τους εγκληματίες με το phishing, τη δημιουργία κακόβουλου λογισμικού, ακόμη και με τρομοκρατικές ενέργειες.

“Εάν ένας δυνητικός εγκληματίας δεν γνωρίζει τίποτα για έναν συγκεκριμένο τομέα εγκλήματος, το ChatGPT μπορεί να επιταχύνει σημαντικά τη διαδικασία έρευνας, προσφέροντας βασικές πληροφορίες που μπορούν στη συνέχεια να διερευνηθούν περαιτέρω σε επόμενα βήματα”, αναφέρεται στην έκθεση της Europol. “Ως εκ τούτου, το ChatGPT μπορεί να χρησιμοποιηθεί για να μάθει κανείς για έναν τεράστιο αριθμό πιθανών περιοχών εγκλήματος χωρίς προηγούμενες γνώσεις, που κυμαίνονται από το πώς να διαρρήξει κανείς ένα σπίτι μέχρι την τρομοκρατία, το έγκλημα στον κυβερνοχώρο και τη σεξουαλική κακοποίηση παιδιών”.

Τον περασμένο μήνα, η Ιταλία επέβαλε προσωρινή απαγόρευση στο ChatGPT μετά από μια δυσλειτουργία που εξέθεσε αρχεία χρηστών. Το ιταλικό συμβούλιο για τα δικαιώματα προστασίας της ιδιωτικής ζωής, Garante, απείλησε τον δημιουργό του προγράμματος, την OpenAI, με πρόστιμα εκατομμυρίων δολαρίων για παραβιάσεις της ιδιωτικής ζωής έως ότου αντιμετωπίσει τα ερωτήματα σχετικά με το πού πηγαίνουν οι πληροφορίες των χρηστών και καθιερώσει ηλικιακούς περιορισμούς στην πλατφόρμα. Η Ισπανία, η Γαλλία και η Γερμανία εξετάζουν καταγγελίες για παραβιάσεις προσωπικών δεδομένων – και αυτό το μήνα το Ευρωπαϊκό Συμβούλιο Προστασίας Δεδομένων της ΕΕ συγκρότησε μια ομάδα εργασίας για το συντονισμό των κανονισμών στις 27 χώρες της Ευρωπαϊκής Ένωσης.

“Είναι μια κλήση αφύπνισης στην Ευρώπη”, δήλωσε στο Yahoo News ο νομοθέτης της ΕΕ Dragos Tudorache, συνυποστηρικτής της Πράξης για την Τεχνητή Νοημοσύνη, η οποία ολοκληρώνεται στο Ευρωπαϊκό Κοινοβούλιο και θα δημιουργήσει μια κεντρική αρχή Τεχνητής Νοημοσύνης. “Πρέπει να διακρίνουμε πολύ καθαρά τι συμβαίνει και πώς να διαμορφώσουμε τους κανόνες”.

Παρόλο που η τεχνητή νοημοσύνη αποτελεί μέρος της καθημερινής ζωής εδώ και αρκετά χρόνια – η Alexa της Amazon και τα διαδικτυακά παιχνίδια σκάκι είναι μόνο δύο από τα πολλά παραδείγματα – τίποτα δεν έχει αναδείξει τις δυνατότητες της τεχνητής νοημοσύνης όπως το ChatGPT, ένα διαδραστικό “μεγάλο γλωσσικό μοντέλο”, όπου οι χρήστες μπορούν να έχουν απαντήσεις σε ερωτήσεις ή να ολοκληρώσουν εργασίες μέσα σε δευτερόλεπτα. “Το ChatGPT έχει γνώσεις που ακόμη και πολύ λίγοι άνθρωποι έχουν”, δήλωσε ο Mark Bünger, συνιδρυτής της Futurity Systems, μιας εταιρείας συμβούλων με έδρα τη Βαρκελώνη που επικεντρώνεται στην καινοτομία με βάση την επιστήμη. “Μεταξύ των πραγμάτων που γνωρίζει καλύτερα από τους περισσότερους ανθρώπους είναι πώς να προγραμματίζει έναν υπολογιστή. Έτσι, πιθανότατα θα είναι πολύ καλός και πολύ γρήγορος στο να προγραμματίσει την επόμενη, καλύτερη έκδοση του εαυτού του. Και αυτή η έκδοση θα είναι ακόμη καλύτερη και θα προγραμματίζει κάτι που κανένας άνθρωπος δεν καταλαβαίνει”.

Η εκπληκτικά αποτελεσματική τεχνολογία ανοίγει επίσης την πόρτα για κάθε είδους απάτη, λένε οι ειδικοί, συμπεριλαμβανομένης της κλοπής ταυτότητας και της λογοκλοπής στα σχολεία. “Για τους εκπαιδευτικούς, η πιθανότητα ότι οι υποβληθείσες εργασίες μαθημάτων μπορεί να έχουν βοηθηθεί ή ακόμη και να έχουν γραφτεί εξ ολοκλήρου από ένα σύστημα δημιουργικής τεχνητής νοημοσύνης, όπως το ChatGPT της OpenAI ή το Bard της Google, αποτελεί αιτία ανησυχίας”, δήλωσε στο Yahoo News ο Nick Taylor, αναπληρωτής διευθυντής του Κέντρου Ρομποτικής του Εδιμβούργου. Το OpenAI και η Microsoft, η οποία έχει υποστηρίξει οικονομικά το OpenAI αλλά έχει αναπτύξει ένα αντίπαλο chatbot, δεν απάντησαν σε αίτημα σχολιασμού για το άρθρο αυτό.

“Η τεχνητή νοημοσύνη υπάρχει εδώ και δεκαετίες, αλλά τώρα γνωρίζει μεγάλη άνθιση επειδή είναι διαθέσιμη για χρήση από όλους”, δήλωσε η Cecilia Tham, διευθύνουσα σύμβουλος της Futurity Systems. Από τότε που το ChatGPT παρουσιάστηκε ως δωρεάν δοκιμή στο κοινό στις 30 Νοεμβρίου, δήλωσε η Tham, οι προγραμματιστές το έχουν προσαρμόσει για να αναπτύξουν χιλιάδες νέα chatbots, από το PlantGPT, το οποίο βοηθά στην παρακολούθηση των φυτών εσωτερικού χώρου, μέχρι το υποθετικό ChaosGPT “που έχει σχεδιαστεί για να παράγει χαοτικές ή απρόβλεπτα αποτελέσματα”, σύμφωνα με την ιστοσελίδα του, και τελικά “να καταστρέφει την ανθρωπότητα”.

Μια άλλη παραλλαγή, το AutoGPT, συντομογραφία για το Autonomous GPT, μπορεί να εκτελέσει πιο περίπλοκες εργασίες προσανατολισμένες σε στόχους. “Για παράδειγμα”, είπε ο Tham, “μπορείτε να πείτε ‘Θέλω να βγάλω 1.000 ευρώ την ημέρα. Πώς μπορώ να το κάνω αυτό;’ – και θα υπολογίσει όλα τα ενδιάμεσα βήματα για την επίτευξη αυτού του στόχου. Τι γίνεται όμως αν κάποιος πει ‘Θέλω να σκοτώσω 1.000 ανθρώπους. Δώσε μου κάθε βήμα για να το πετύχω αυτό’;”. Παρόλο που το μοντέλο ChatGPT έχει περιορισμούς στις πληροφορίες που μπορεί να δώσει, σημειώνει ότι “οι άνθρωποι έχουν καταφέρει να τους παρακάμψουν”.

Οι πιθανοί κίνδυνοι των chatbots, και της τεχνητής νοημοσύνης γενικότερα, ώθησαν το Ινστιτούτο Future of Life Institute, μια δεξαμενή σκέψης που επικεντρώνεται στην τεχνολογία, να δημοσιεύσει μια ανοιχτή επιστολή τον περασμένο μήνα ζητώντας να σταματήσει προσωρινά η ανάπτυξη της τεχνητής νοημοσύνης. Υπογεγραμμένη από τον Elon Musk και τον συνιδρυτή της Apple Steve Wozniak, σημείωνε ότι “τα συστήματα τεχνητής νοημοσύνης με ανθρώπινη ανταγωνιστική νοημοσύνη μπορούν να θέσουν βαθύτατους κινδύνους για την κοινωνία και την ανθρωπότητα” και ότι “τα εργαστήρια τεχνητής νοημοσύνης είναι εγκλωβισμένα σε μια ανεξέλεγκτη κούρσα για την ανάπτυξη ολοένα και πιο ισχυρών ψηφιακών μυαλών που κανείς -ούτε καν οι δημιουργοί τους- δεν μπορεί να κατανοήσει, να προβλέψει ή να ελέγξει αξιόπιστα”. Οι υπογράφοντες ζήτησαν εξάμηνη παύση στην ανάπτυξη συστημάτων τεχνητής νοημοσύνης ισχυρότερων από το GPT-4, ώστε να μπορέσουν να διαμορφωθούν κανονισμοί, και ζήτησαν από τις κυβερνήσεις να “επιβάλουν μορατόριουμ”, εάν οι βασικοί παράγοντες του κλάδου δεν το πράξουν οικειοθελώς.

Ο κοινοβουλευτικός εκπρόσωπος της ΕΕ Μπράντο Μπενιφέι, συνυποστηρικτής του νόμου για την τεχνητή νοημοσύνη, χλευάζει αυτή την ιδέα. “Ένα μορατόριουμ δεν είναι ρεαλιστικό”, δήλωσε στο Yahoo News. “Αυτό που πρέπει να κάνουμε είναι να συνεχίσουμε να εργαζόμαστε για την εξεύρεση των σωστών κανόνων για την ανάπτυξη της τεχνητής νοημοσύνης”, είπε, “Χρειαζόμαστε επίσης μια παγκόσμια συζήτηση για το πώς θα αντιμετωπίσουμε τις προκλήσεις αυτής της πολύ ισχυρής τεχνητής νοημοσύνης”.

Αυτή την εβδομάδα, οι νομοθέτες της ΕΕ που ασχολούνται με την τεχνητή νοημοσύνη δημοσίευσαν μια “έκκληση για δράση”, ζητώντας από τον πρόεδρο Μπάιντεν και την πρόεδρο της Ευρωπαϊκής Επιτροπής Ούρσουλα φον ντερ Λάιεν “να συγκαλέσουν μια παγκόσμια σύνοδο κορυφής υψηλού επιπέδου” για να καθορίσουν “ένα προκαταρκτικό σύνολο αρχών διακυβέρνησης για την ανάπτυξη, τον έλεγχο και την ανάπτυξη” της τεχνητής νοημοσύνης.

Ο Tudorache δήλωσε στο Yahoo News ότι ο νόμος για την τεχνητή νοημοσύνη, ο οποίος αναμένεται να τεθεί σε ισχύ το επόμενο έτος, “παρέχει νέες εξουσίες στις ρυθμιστικές αρχές για την αντιμετώπιση των εφαρμογών τεχνητής νοημοσύνης” και δίνει στις ρυθμιστικές αρχές της ΕΕ την εξουσία να επιβάλλουν βαριά πρόστιμα. Η νομοθεσία περιλαμβάνει επίσης μια ταξινόμηση κινδύνου των διαφόρων δραστηριοτήτων τεχνητής νοημοσύνης και απαγορεύει χρήσεις όπως η “κοινωνική βαθμολόγηση”, ένα δυστοπικό σύστημα παρακολούθησης που θα βαθμολογούσε σχεδόν κάθε κοινωνική αλληλεπίδραση σε μια κλίμακα αξιοκρατίας.

“Οι καταναλωτές θα πρέπει να γνωρίζουν ποια δεδομένα χρησιμοποιεί και αποθηκεύει η ChatGPT και για ποιο λόγο χρησιμοποιούνται”, δήλωσε στο Yahoo News ο Sébastien Pant, αναπληρωτής επικεφαλής επικοινωνίας της Ευρωπαϊκής Οργάνωσης Καταναλωτών (BEUC). “Δεν μας είναι ακόμη σαφές ποια δεδομένα χρησιμοποιούνται ή αν η συλλογή δεδομένων σέβεται τη νομοθεσία περί προστασίας δεδομένων”. Οι ΗΠΑ, εν τω μεταξύ, συνεχίζουν να καθυστερούν στη λήψη συγκεκριμένων μέτρων για τη ρύθμιση της τεχνητής νοημοσύνης, παρά τις ανησυχίες που εξέφρασε πρόσφατα ο επίτροπος της FTC Άλβαρο Μπεντόγια ότι “η τεχνητή νοημοσύνη χρησιμοποιείται αυτή τη στιγμή για να αποφασιστεί ποιος θα προσληφθεί, ποιος θα απολυθεί, ποιος θα πάρει δάνειο, ποιος θα μείνει στο νοσοκομείο και ποιος θα πάει σπίτι του”.

Όταν ο Μπάιντεν ρωτήθηκε πρόσφατα αν η τεχνητή νοημοσύνη μπορεί να είναι επικίνδυνη, απάντησε: “Μένει να το δούμε – μπορεί να είναι”. Οι διαφορετικές στάσεις σχετικά με την προστασία των προσωπικών δεδομένων των καταναλωτών χρονολογούνται εδώ και δεκαετίες, δήλωσε στο Yahoo News η Gabriela Zanfir-Fortuna, αντιπρόεδρος για την παγκόσμια προστασία της ιδιωτικής ζωής στο Future of Privacy Forum, μια δεξαμενή σκέψης που επικεντρώνεται στην προστασία των δεδομένων.

“Η ΕΕ έχει δώσει μεγάλη σημασία στο πώς επηρεάζονται τα δικαιώματα των ανθρώπων από την αυτοματοποίηση των προσωπικών τους δεδομένων σε αυτή τη νέα μηχανογραφημένη, ψηφιακή εποχή, σε σημείο που συμπεριέλαβε διάταξη στον Χάρτη των Θεμελιωδών Δικαιωμάτων της”, δήλωσε η Zanfir-Fortuna. Ευρωπαϊκές χώρες όπως η Γερμανία, η Σουηδία και η Γαλλία υιοθέτησαν νόμους για την προστασία των δεδομένων πριν από 50 χρόνια, πρόσθεσε η ίδια. “Οι Αμερικανοί νομοθέτες φαίνεται να έχουν ασχοληθεί λιγότερο με το θέμα αυτό τις προηγούμενες δεκαετίες, καθώς η χώρα εξακολουθεί να μην διαθέτει έναν γενικό νόμο για την προστασία των δεδομένων σε ομοσπονδιακό επίπεδο”.

Εν τω μεταξύ, ο Gerd Leonhard, συγγραφέας του βιβλίου “Τεχνολογία εναντίον Ανθρωπότητας”, και άλλοι ανησυχούν για το τι θα συμβεί όταν το ChatGPT και οι πιο προηγμένες μορφές τεχνητής νοημοσύνης χρησιμοποιηθούν από τον στρατό, τα τραπεζικά ιδρύματα και όσους εργάζονται για περιβαλλοντικά προβλήματα. “Το διαρκές αστείο στην κοινότητα της τεχνητής νοημοσύνης”, δήλωσε ο Leonhard, “είναι ότι αν ζητήσετε από την τεχνητή νοημοσύνη να διορθώσει την κλιματική αλλαγή, θα σκοτώσει όλους τους ανθρώπους. Είναι άβολο για εμάς, αλλά είναι η πιο λογική απάντηση”.

Πηγή:

https://news.yahoo.com/europe-sounds-the-alarm-on-chatgpt