Τεχνολογία

Επιστολή του Elon Musk που ζητά την παύση έρευνας για την τεχνητή νοημοσύνη πυροδοτεί διαμάχη

Γράφει η Δανάη Καταλιακού, φοιτήτρια Ψυχολογίας

 Αναταραχή έχει προκαλέσει μια επιστολή που φέρει την υπογραφή του Elon Musk και πολλών άλλων, οι οποίοι απαιτούν μία παύση στην έρευνα της τεχνητής νοημοσύνης, καθώς οι ερευνητές που αναφέρονται στην επιστολή χαρακτήρισαν το έργο τους ως επικίνδυνο, ενώ αποκαλύφθηκαν κάποιες ψευδείς υπογραφές και κάποιοι άλλοι υπαναχώρησαν από την υποστήριξή της. Πιο συγκεκριμένα, η επιστολή ζητούσε την εξάμηνη παύση της ανάπτυξης συστημάτων “πιο ισχυρών από το GPT-4” με την υποστήριξη, πέραν του Elon Musk, γνωστών εταιρειών συμπεριλαμβανομένων των Microsoft, Google, Amazon, Meta και DeepMind, όπως και του γνωστικού επιστήμονα Gary Marcus και του συνιδρυτή της Apple, Steve Wozniak.

Η εταιρεία OpenAI, της οποίας ο Elon Musk είναι συνιδρυτής, προχώρησε στην ανάπτυξη του συστήματος τεχνητής νοημοσύνης GPT-4, το οποίο πλέον, με την υποστήριξη της Microsoft, πραγματοποιεί συζητήσεις όπως ένας άνθρωπος, συνθέτει τραγούδια και συνοψίζει εκτενή αρχεία. Στην επιστολή αναφέρεται ότι, τέτοια συστήματα τεχνητής νοημοσύνης ανταγωνίζονται την ανθρώπινη και είναι επικίνδυνα για την ίδια την ανθρωπότητα. Προτείνεται, μάλιστα η αξιοποίηση της εξάμηνης παύσης ως ευκαιρίας για την προσεκτική δημιουργία πρωτοκόλλων ασφαλείας προηγμένου επιπέδου και την ανάπτυξη τεχνητής νοημοσύνης αυστηρά ελεγχόμενης από ανεξάρτητους εξωτερικούς εμπειρογνώμονες και τα εργαστήρια τεχνητής νοημοσύνης.

Τεκμήρια για την αίτηση παύσης της έρευνας προσκόμισε το ινστιτούτο “The Future of Life”, το οποίο συντόνισε την συγκεκριμένη προσπάθεια με 12 έρευνες ειδικών (συμπεριλαμβανομένων και ακαδημαϊκών) όπως και νυν και πρώην υπαλλήλων του OpenAI, της Google και της θυγατρικής της DeepMind. Ωστόσο, τέσσερις ειδικοί, των οποίων τα ονόματα αναφέρονται στην επιστολή, υποστηρίζουν ότι οι έρευνές τους χρησιμοποιήθηκαν για τη διατύπωση τέτοιων ισχυρισμών.

Στην αρχή της κυκλοφορίας της, η επιστολή δε διέθετε κάποιον τρόπο επαλήθευσης της γνησιότητας των υπογραφών, με αποτέλεσμα να συγκεντρώνονται υπογραφές ατόμων συμπεριλαμβανομένου του Xi Jinping και του επικεφαλής επιστήμονα AI της Meta, Yann LeCun, χωρίς την συγκατάθεσή τους. Κατά συνέπεια, το ινστιτούτο το οποίο έχει λάβει χρηματοδότηση από το ίδρυμα Musk, χωρίς να είναι αυτός ο βασικός χορηγός της, δέχθηκε κατηγορίες για τη μη διαφάνεια του χαρακτήρα του και την ενασχόληση με φανταστικά σενάρια εις βάρος άμεσων και πραγματικών ανησυχιών αναφορικά με την τεχνητή νοημοσύνη, όπως οι ρατσιστικές ή σεξιστικές προκαταλήψεις, σύμφωνα με τις οποίες προγραμματίζονται οι μηχανές.

Ανάμεσα στις έρευνες που παρουσιάστηκαν ως πειστήρια της αναστολής ανάπτυξης της τεχνητής νοημοσύνης βρισκόταν η «On the Dangers of Stochastic Parrots», έρευνα στην οποία συμμετείχε η Margaret Mitchell. Ως επικεφαλής επιστήμονας ηθικής στην εταιρεία τεχνητής νοημοσύνης Hugging Face, η Mitcell κατέκρινε την επιστολή και δήλωσε στο Reuters ότι δεν έχει αποσαφηνιστεί τι θεωρείται “πιο ισχυρό από το GPT-4”. Υποστήριξε δε ότι η αφήγηση για την τεχνητή νοημοσύνη, που προωθεί η επιστολή, εξυπηρετεί συμφέροντα του FLI και αγνοεί παρόντα προβλήματα.

Παρομοίως οι συνεργάτες της Mitchell, Timnit Gebru και Emily M Bender διαφώνησαν με το περιεχόμενο της επιστολής χαρακτηρίζοντας μερικούς από τους ισχυρισμούς ως ανυπόστατους. Η Shiri Dori-Hacohen, επίκουρη καθηγήτρια στο Πανεπιστήμιο του Κονέκτικατ, αντιτάχθηκε, επίσης, στην συμπερίληψη του έργου της στην επιστολή. Η έρευνά της υποστήριξε ότι η σημερινή χρήση συστημάτων τεχνητής νοημοσύνης θα μπορούσε να επηρεάσει τη λήψη αποφάσεων σε σχέση με την κλιματική αλλαγή, τον πυρηνικό πόλεμο και άλλες υπαρξιακές απειλές και να αποβεί επικίνδυνη, χωρίς καν να φτάσει τα επίπεδα της ανθρώπινης νοημοσύνης. Σε δήλωσή του στο Reuters ο πρόεδρος του FLI, Max Tegmark ανέφερε ότι χρειάζεται να λαμβάνονται υπόψιν τόσο οι βραχυπρόθεσμοι, όσο και οι μακροπρόθεσμοι κίνδυνοι της τεχνητής νοημοσύνης και ότι η αναφορά κάποιου ονόματος στην επιστολή δεν συνεπάγεται ούτε την επιδοκιμασία της επιστολής από την πλευρά του ερευνητή, ούτε την υποστήριξη όσων αναφέρει στην έρευνά του από το ινστιτούτο.

Πηγή:  

https://www.theguardian.com/technology/2023/mar/31/ai-research-pause-elon-musk-chatgpt