Μεταφράζει ο Βαγγέλης Ζαφειριάδης
Τον περασμένο Μάρτιο, μια δημοφιλής επιστολή κάλεσε σε παύση της ανάπτυξης της τεχνητής νοημοσύνης, προειδοποιώντας ότι οι αλγόριθμοι θα μπορούσαν να ξεπεράσουν την ανθρωπότητα. Πάντως, πολλοί ειδικοί που υπέγραψαν δεν πίστευαν ότι η τεχνολογία αποτελεί υπαρκτό κίνδυνο.
Περίπου 35.000 ερευνητές Τεχνητής Νοημοσύνης, τεχνολόγοι, επιχειρηματίες και ανήσυχοι πολίτες υπέγραψαν μια ανοιχτή επιστολή από το μη κερδοσκοπικό Ινστιτούτο Future of Life (Το Μέλλον της Ζωής) που ζητούσε να σταματήσει η εξέλιξη της τεχνητής νοημοσύνης, εξαιτίας των κινδύνων για την ανθρωπότητα που προκύπτουν λόγω των δυνατοτήτων προγραμμάτων όπως το ChatGPT.
“Τα σύγχρονα συστήματα τεχνητής νοημοσύνης γίνονται πλέον ανταγωνιστικά προς τον άνθρωπο σε γενικές εργασίες και πρέπει να αναρωτηθούμε … Πρέπει να εξελίξουμε μη ανθρώπινα είδη που μπορεί τελικά να μας ξεπεράσουν και να μας αντικαταστήσουν;”
Σχεδόν έξι μήνες αργότερα και με την ανάπτυξη της τεχνητής νοημοσύνης να είναι ταχύτερη από ποτέ, ο πολιτισμός δεν έχει καταρρεύσει. Το Bing Chat, η “επαναστατική”, εμπλουτισμένη με το ChatGPT, μηχανή αναζήτησης της Microsoft, δεν έχει καν εκτοπίσει την Google από την ηγετική θέση στην αναζήτηση. Τι πρέπει λοιπόν να καταλάβουμε από την επιστολή και παρόμοιες προειδοποιήσεις επιστημονικής φαντασίας που υποστηρίζονται από αξιόλογους ανθρώπους σχετικά με τους κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη;
Δύο φοιτήτριες του ΜΙΤ, η Isabella Struckman και η Sofie Kupiec, επικοινώνησαν με τους εκατό πρώτους υπογράφοντες την επιστολή που ζητούσε να σταματήσει η ανάπτυξη της τεχνητής νοημοσύνης, για να μάθουν περισσότερα για τα κίνητρα και τις ανησυχίες τους. Η καταγραφή των ευρημάτων αποκαλύπτει ένα ευρύ φάσμα προοπτικών μεταξύ εκείνων που υπέγραψαν. Εν τέλει, σχετικά λίγοι ήταν αυτοί που πραγματικά ανησυχούσαν για μια τεχνητή νοημοσύνη που αποτελεί μια διαφαινόμενη απειλή για την ίδια την ανθρωπότητα.
Πολλοί από τους ανθρώπους με τους οποίους μίλησαν οι Struckman και Kupiec δεν πίστευαν ότι μια μικρή παύση στην ανάπτυξη της τεχνητής νοημοσύνης θα μπορούσε να συμβεί ή θα είχε κάποιο αποτέλεσμα.
Ένας σημαντικός αριθμός όσων υπέγραψαν, φαίνεται ότι ανησυχούσε κυρίως για τον ρυθμό του ανταγωνισμού μεταξύ Google, OpenAI, Microsoft και άλλων, καθώς ο θόρυβος γύρω από τις δυνατότητες των εργαλείων τεχνητής νοημοσύνης όπως το ChatGPT έφτασε σε ιλιγγιώδη ύψη. Η Google ήταν ο αρχικός προγραμματιστής αρκετών αλγορίθμων-κλειδιών για τη δημιουργία του chatbot, αλλά κινήθηκε σχετικά αργά μέχρι να επικρατήσει το ChatGPT. Για τους ανθρώπους αυτούς, η προοπτική των εταιρειών να σπεύσουν να κυκλοφορήσουν πειραματικούς αλγορίθμους χωρίς να διερευνήσουν τους κινδύνους ήταν λόγος ανησυχίας – όχι επειδή θα μπορούσαν να αφανίσουν την ανθρωπότητα, αλλά επειδή θα μπορούσαν να οδηγήσουν σε παραπληροφόρηση, να παράσχουν προκατειλημμένες συμβουλές ή να αυξήσουν την επιρροή και τον πλούτο των ήδη πολύ ισχυρών εταιρειών τεχνολογίας.
Ορισμένοι ανησυχούσαν, επίσης, για το πιο μακρινό ενδεχόμενο η τεχνητή νοημοσύνη να εκτοπίσει τους εργαζόμενους με πρωτόγνωρη μέχρι σήμερα ταχύτητα. Ορισμένοι θεώρησαν ότι η δήλωση θα βοηθούσε να προσελκύσει την προσοχή του κοινού σε σημαντικά άλματα στις επιδόσεις των μοντέλων τεχνητής νοημοσύνης, ωθώντας ίσως τις ρυθμιστικές αρχές να αναλάβουν κάποιου είδους δράση για την αντιμετώπιση των βραχυπρόθεσμων κινδύνων που εγκυμονούν οι εξελίξεις στην τεχνητή νοημοσύνη.
Σε δηλώσεις μερικών υπογραφόντων τον Μάιο, ήταν σαφές ότι δεν συμφωνούσαν όλοι απόλυτα με όσα ανέφερε η επιστολή. Προτίμησαν να υπογράψουν επειδή η δυναμική που αναπτύσσεται θα τραβούσε την προσοχή στους διάφορους κινδύνους που τους ανησυχούσαν και ως εκ τούτου άξιζε να την υποστηρίξουν.
Ίσως όμως ήταν λάθος να προσπαθήσουμε να καλύψουμε τόσα πολλά ζητήματα που ενδεχομένως να εγείρονται από την υπάρχουσα και την πρόσφατα αναπτυχθείσα τεχνητή νοημοσύνη σε μια επιστολή, που, αναπόφευκτα, θα καθοριζόταν από τον πιο τρομακτικό ισχυρισμό της. Ορισμένοι ερευνητές της τεχνητής νοημοσύνης έχουν περάσει τα τελευταία χρόνια προειδοποιώντας για τα πιο άμεσα κοινωνικά προβλήματα που θα μπορούσαν να προκαλέσουν τα μεγάλα γλωσσικά μοντέλα, συμπεριλαμβανομένης της επιδείνωσης των βαθιά ριζωμένων προκαταλήψεων. Οι ανησυχίες τους, ωστόσο, μόλις που ακούστηκαν μέσα στον σάλο που προκάλεσε η επιστολή γύρω από τα σενάρια καταστροφής για την τεχνητή νοημοσύνη. Η εξέχουσα θέση αυτού του αποκαλυπτικού σκέλους σκέψης ενισχύθηκε από μια δήλωση που ακολούθησε τον Μάιο, την οποία επίσης υπέγραψαν πολλοί ερευνητές υψηλού κύρους που ασχολούνται με την τεχνητή νοημοσύνη και η οποία συνέκρινε την απειλή εξαφάνισης της τεχνητής νοημοσύνης με εκείνη των πυρηνικών όπλων και των πανδημιών.
Η Nirit Weiss-Blatt, συγγραφέας του βιβλίου “Η τεχνολογική σύγκρουση και η επικοινωνία της τεχνολογικής κρίσης” (The Techlash and Tech Crisis Communication), η οποία εξέτασε το έγγραφο του ΜΙΤ πριν από τη δημοσίευσή του, λέει ότι η επιστολή και η δήλωση κατέληξαν να εξυπηρετούν τα συμφέροντα των τεχνολογικών εταιρειών που κατασκευάζουν τεχνητή νοημοσύνη αιχμής, επειδή η εστίαση κάνει τις ρυθμιστικές αρχές να πιστεύουν ότι, ναι μεν η τεχνολογία είναι πολύτιμη, αλλά παράλληλα και δύσκολα διαχειρίσιμη. Πολλοί από τους καθηγητές που υπέγραψαν την επιστολή δεν σκέφτονταν την τεχνητή νοημοσύνη ως υπαρξιακό κίνδυνο όταν το έκαναν, λέει η Weiss-Blatt. “Αλλά δάνεισαν το όνομά τους στους ακραίους καταστροφολόγους της τεχνητής νοημοσύνης. Αυτή είναι η πραγματική παραπληροφόρηση εδώ”.
Τελικά, η επιστολή με αίτημα την παύση στην ανάπτυξη της τεχνητής νοημοσύνης μπορεί να έκανε το αντίθετο από αυτό που ήθελαν πολλοί από τους υπογράφοντες. Με το να εντείνει τη συζήτηση για τα σενάρια καταστροφής, η επιστολή δυσκόλεψε τις ανησυχίες για τις «έξυπνες» μηχανές να κερδίσουν την προσοχή ή να παρακινήσουν τον κόσμο.
Πηγή:
Η εθελοντική ομάδα του CSI Institute, αποτελούμενη από εξειδικευμένους επιστήμονες όπως, ψυχολόγους, εγκληματολόγους, κοινωνιολόγους καθώς και τεχνικούς δικτύων & πληροφορικής, είναι κοντά σας παρέχοντας πληροφορία, ενημέρωση και γνώση μέσα από ποικίλα θέματα αρθρογραφίας.