Κοινωνία, Τεχνητή Νοημοσύνη, Τεχνολογία

Ο Sam Altman προειδοποιεί ότι η τεχνητή νοημοσύνη θα μπορούσε να μας σκοτώσει όλους. Εξακολουθεί, όμως, να θέλει να την χρησιμοποιήσει ο κόσμος.

Μεταφράζει η Πέννυ Τζανετοπούλου

Ο Sam Altman πιστεύει ότι η τεχνολογία που υποστηρίζει το πιο διάσημο προϊόν της εταιρείας του θα μπορούσε να επιφέρει το τέλος του ανθρώπινου πολιτισμού.

Τον Μάιο, ο διευθύνων σύμβουλος της OpenAI, Sam Altman, εισήχθη σε μία αίθουσα ακρόασης υποεπιτροπής της Γερουσίας στην Ουάσιγκτον, με μία επείγουσα έκκληση προς τους νομοθέτες: “Δημιουργήστε προσεγμένες ρυθμίσεις που θα ασπάζονται την ισχυρή υπόσχεση της τεχνητής νοημοσύνης – μετριάζοντας παράλληλα τον κίνδυνο να υπερισχύσει της ανθρωπότητας”. Ήταν μία καθοριστική στιγμή, τόσο για τον ίδιο, όσο και για το μέλλον της τεχνητής νοημοσύνης.

Με το λανσάρισμα του ChatGPΤ της OpenAI, o Sam Altman, αναδείχθηκε εν μία νυκτί ως το πρότυπο για μία νέα φουρνιά εργαλείων τεχνητής νοημοσύνης, που μπορούν να παράγουν εικόνες και κείμενα ως απάντηση στις προτροπές του χρήστη, μία τεχνολογία που ονομάστηκε γεννητική τεχνητή νοημοσύνη (generative AI). Σύντομα μετά την κυκλοφορία του, το ChatGPΤ έγινε ένα οικιακό όνομα, σχεδόν συνώνυμο με την ίδια την τεχνητή νοημοσύνη. Διευθύνοντες σύμβουλοι το χρησιμοποιούσαν για να συντάσσουν μηνύματα ηλεκτρονικού ταχυδρομείου, άνθρωποι δημιουργούσαν ιστοσελίδες χωρίς καμία προηγούμενη εμπειρία στον προγραμματισμό, και περνούσε εξετάσεις από νομικές και οικονομικές σχολές. Είχε την δυνατότητα να φέρει την επανάσταση σχεδόν σε κάθε κλάδο, συμπεριλαμβανομένης της εκπαίδευσης, της οικονομίας, της γεωπονικής και της υγειονομικής περίθαλψης, από χειρουργικές επεμβάσεις έως την ανάπτυξη ιατρικών εμβολίων.

Ωστόσο, τα ίδια αυτά εργαλεία έχουν προκαλέσει ανησυχίες για τα πάντα, από αντιγραφές στα σχολεία και την εκτόπιση των ανθρώπινων εργαζομένων – ακόμα και για μια υπαρξιακή ανησυχία για την ανθρωπότητα. Η άνοδος της τεχνητής νοημοσύνης, για παράδειγμα, έχει οδηγήσει τους οικονομολόγους να προειδοποιούν για την αγορά εργασίας. 300 εκατομμύρια θέσεις εργασίας πλήρους απασχόλησης σε όλο τον κόσμο θα μπορούσαν τελικά να αυτοματοποιηθούν με κάποιον τρόπο από την γεννητική τεχνητή νοημοσύνη, σύμφωνα με τις εκτιμήσεις της Goldman Sachs. Περίπου 14 εκατομμύρια θέσεις εργασίας θα μπορούσαν να εξαφανιστούν μόνο μέσα στα επόμενα πέντε χρόνια, σύμφωνα με την έκθεση του Απριλίου από το Παγκόσμιο Οικονομικό Φόρουμ.

Στην κατάθεσή του ενώπιον του Κογκρέσου, ο Altman δήλωσε ότι η δυνατότητα χρήσης της τεχνητής νοημοσύνης, για να χειραγωγήσει τους ψηφοφόρους και να παραπληροφορήσει στοχευμένα, ήταν μεταξύ «των τομέων που με ανησυχούν περισσότερο».

Δύο εβδομάδες μετά την ακρόαση, ο Altman μαζί με εκατοντάδες από τους κορυφαίους επιστήμονες, ερευνητές και επιχειρηματικούς ηγέτες της τεχνητής νοημοσύνης, υπέγραψαν μία επιστολή δηλώνοντας: «Ο μετριασμός του κινδύνου εξαφάνισης από την τεχνητή νοημοσύνη θα πρέπει να αποτελεί παγκόσμια προτεραιότητα μαζί με τους υπόλοιπους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος».

Η προειδοποίηση καλύφθηκε πλήρως από τον Τύπο, με ορισμένους να υποστηρίζουν ότι δείχνει την ανάγκη να λαμβάνονται τέτοια αποκαλυπτικά σενάρια πολύ πιο σοβαρά. Ανέδειξε, επίσης, μία σημαντική δυναμική στην Silicon Valley: Κορυφαία στελέχη σε μερικές από τις μεγαλύτερες τεχνικές εταιρείες, πληροφορούν το κοινό ότι η τεχνητή νοημοσύνη έχει την δυνατότητα να επιφέρει την εξαφάνιση του ανθρώπου, ενώ ταυτόχρονα δίνουν αγώνα για να επενδύσουν και να αξιοποιήσουν την τεχνητή νοημοσύνη σε προϊόντα στα οποία θα έχουν πρόσβαση δισεκατομμύρια άνθρωποι.

Παρ’ όλο που ο Altman, μακροχρόνιος επιχειρηματίας και επενδυτής της Silicon Valley, έμεινε τα προηγούμενα χρόνια σε μεγάλο βαθμό μακριά από τα φώτα της δημοσιότητας, τους τελευταίους μήνες τα βλέμματα έχουν στραφεί πάνω του ως «το παιδί υπόδειγμα» για την επανάσταση της τεχνητής νοημοσύνης. Αυτό τον έχει επίσης εκθέσει σε δικαστικούς αγώνες, εξονυχιστικό ρυθμιστικό έλεγχο, καθώς και τόσο σε επαίνους όσο και επικρίσεις σε όλον τον κόσμο.

Ωστόσο, εκείνη την ημέρα ενώπιον της υποεπιτροπής της Γερουσίας, ο Altman περιέγραψε την τρέχουσα έκρηξη της τεχνολογίας ως καθοριστική στιγμή.

Ο Altman έχει εδώ και καιρό παρουσιάσει τον εαυτό του ως κάποιο που έχει επίγνωση των κινδύνων που εγκυμονεί η τεχνητή νοημοσύνη και έχει δεσμευτεί να προχωρήσει με υπευθυνότητα. Είναι ένας από τους διευθύνοντες συμβούλους τεχνητής νοημοσύνης που συναντήθηκαν με τους ηγέτες του Λευκού Οίκου, μεταξύ των οποίων η Kamala Harris και ο Joe Biden, προκειμένου να τονίσουν την σημασία της ηθικής και υπεύθυνης ανάπτυξης της τεχνητής νοημοσύνης.

Ορισμένοι θέλουν από τον Altman και την OpenAI να κινηθούν πιο προσεκτικά. Ο Elon Musk, o οποίος βοήθησε στην δημιουργία της OpenAI, προτού αποχωρήσει από την ομάδα, και δεκάδες ηγέτες, καθηγητές και ερευνητές της τεχνολογίας, κάλεσαν εργαστήρια τεχνητής νοημοσύνης, όπως το OpenAI, να σταματήσουν την εκπαίδευση των πιο ισχυρών συστημάτων τεχνητής νοημοσύνης για τουλάχιστον έξι μήνες, αναφερόμενοι σε «σοβαρότατους κινδύνους για την κοινωνία και την ανθρωπότητα.» ( Την ίδια στιγμή, ορισμένοι ειδικοί διερωτήθηκαν εάν αυτοί που υπέγραψαν την επιστολή επιδιώκουν να διατηρήσουν το ανταγωνιστικό τους πλεονέκτημα έναντι άλλων εταιρειών).

O Altman δήλωσε ότι συμφωνεί με ορισμένα σημεία της επιστολής, συμπεριλαμβανομένου του ότι «το όριο ασφαλείας πρέπει να αυξηθεί», αλλά υποστήριξε ότι η παύση δεν θα ήταν ο «βέλτιστος τρόπος» για την αντιμετώπιση των προκλήσεων.

Παρόλα αυτά, η OpenAI και ο Jony Ive, σχεδιαστής του iPhone, φέρεται να βρίσκονται σε συζητήσεις προκειμένου να συλλέξουν 1 δισεκατομμύρια δολάρια από τον Ιαπωνικό όμιλο SoftBank για μία συσκευή τεχνητής νοημοσύνης που θα αντικαταστήσει το smartphone.

“O Kevin Bacon της Silicon Valley”

Αυτοί που γνωρίζουν τον Altman τον έχουν περιγράψει ως κάποιον που κάνει προφητικά στοιχήματα και τον έχουν αποκαλέσει ακόμα και “startup Yoda” και ‘Kevin Bacon της Silicon Valley”, έχοντας συνεργαστεί φαινομενικά σχεδόν με όλους σε αυτόν τον κλάδο. Ο Aaron Levie, διευθύνων σύμβουλος της εταιρείας επιχειρηματικού cloud, Box, και μακροχρόνιος φίλος του Altman, ο οποίος ανέβηκε μαζί του στον κόσμο των νεοφυών επιχειρήσεων, δήλωσε στο CNN ότι ο Altman είναι «εσωστρεφής» και θέλει να ανταλλάσσει ιδέες, να λαμβάνει διαφορετικές απόψεις και ενθαρρύνει διαρκώς την ανατροφοδότηση για οτιδήποτε κι αν εργάζεται.

«Τον έβρισκα πάντα να κάνει φοβερή αυτοκριτική απέναντι στις ιδέες του και πρόθυμο να δεχθεί κάθε είδους ανατροφοδότηση για οποιοδήποτε θέμα κι αν έχει ασχοληθεί μέσα σε όλα αυτά τα χρόνια», δήλωσε ο Levie.

Ωστόσο, ο Bern Elliot, αναλυτής της Gartner Research, σημείωσε το διάσημο κλισέ: «Υπάρχει κίνδυνος με το να βάζεις όλα σου τα αυγά σε ένα καλάθι, όσο κι αν το εμπιστεύεσαι». «Πολλά πράγματα μπορούν να συμβούν σε ένα καλάθι», πρόσθεσε.

Οι προκλήσεις είναι μπροστά

Όταν ξεκίνησε την OpenAI, ο Altman δήλωσε στο CNN το 2015 ότι ήθελε να κατευθύνει την πορεία της τεχνητής νοημοσύνης, αντί να ανησυχεί για τις πιθανές βλάβες και να μην κάνει τίποτα. «Κοιμάμαι καλύτερα γνωρίζοντας ότι μπορεί να έχω κάποια επιρροή τώρα», είπε.

Παρά την ηγετική του ιδιότητα, ο Altman δηλώνει ακόμα ανήσυχος σχετικά με την τεχνολογία. «Ετοιμάζομαι για την επιβίωση», είπε σε ένα προφίλ του 2016 στο New Yorker, σημειώνοντας διάφορα πιθανά καταστροφικά σενάρια όπως «η τεχνητή νοημοσύνη που μας επιτίθεται».

«Έχω όπλα, χρυσό, ιωδιούχο κάλιο, αντιβιοτικά, μπαταρίες, νερό, μάσκες αερίων από τις Ισραηλινές Αμυντικές Δυνάμεις, καθώς και ένα μεγάλο κομμάτι γης στο Big Sur, στο οποίο μπορώ να πετάξω», είπε.

Ωστόσο, ορισμένοι ειδικοί της βιομηχανίας της τεχνητής νοημοσύνης υποστηρίζουν ότι η εστίαση της προσοχής σε μακρινά αποκαλυπτικά σενάρια μπορεί να αποσπάσει την προσοχή από τις πιο άμεσες βλάβες που μπορούν να προκαλέσουν στους ανθρώπους και στις κοινότητες μία νέα γενιά εργαλείων τεχνητής νοημοσύνης. Ο Rowan Curran, αναλυτής στην εταιρεία ερευνών αγοράς, Forrester, αναγνώρισε τις βάσιμες ανησυχίες σχετικά με την διασφάλιση ότι τα δεδομένα κατάρτισης, ιδιαίτερα για τεράστια μοντέλα, έχουν ελάχιστη προκατάληψη, – ή έχουν προκατάληψη η οποία είναι αναγνωρίσιμη και μπορεί να μετριαστεί.

“H ιδέα μιας ‘Αποκάλυψης της Τεχνητής Νοημοσύνης’ ως ρεαλιστικό σενάριο που παρουσιάζει οποιονδήποτε κίνδυνο για την ανθρωπότητα – ιδιαίτερα βραχυπρόθεσμα και μεσοπρόθεσμα- είναι απλώς μία υποθετική τεχνο-μυθολογία», είπε. «Η συνεχής εστίαση σε αυτό ως έναν από τους μεγάλους κινδύνους, που συνοδεύουν την πρόοδο της τεχνητής νοημοσύνης, αποσπά την προσοχή από τις πραγματικές προκλήσεις που έχουμε να αντιμετωπίσουμε σήμερα, προκειμένου να μειώσουμε τις τρέχουσες και μελλοντικές βλάβες από δεδομένα και μοντέλα που εφαρμόζονται άδικα από ανθρώπινους παράγοντες.

Στην μεγαλύτερη, ίσως, σαρωτική προσπάθεια που έχει γίνει μέχρι σήμερα, ο Πρόεδρος Biden παρουσίασε νωρίτερα αυτήν την εβδομάδα ένα εκτελεστικό διάταγμα, που θα απαιτεί από τους προγραμματιστές ισχυρών συστημάτων τεχνητής νοημοσύνης να μοιράζονται τα αποτελέσματα των δοκιμών ασφαλείας τους με την ομοσπονδιακή κυβέρνηση προτού αυτά διατεθούν στο κοινό, εάν ενέχουν κινδύνους για την εθνική ασφάλεια, την οικονομία ή την υγεία.

Μετά την ακρόαση της Γερουσίας, η Emily Bender, καθηγήτρια στο Πανεπιστήμιο της Ουάσιγκτον και διευθύντρια του Εργαστηρίου Υπολογιστικής Γλωσσολογίας, εξέφρασε ανησυχίες σχετικά με το πώς θα είναι το μέλλον με την τεχνητή νοημοσύνη, ακόμα κι αν αυτή ρυθμίζεται σε μεγάλο βαθμό. «Αν πιστεύουν πραγματικά ότι θα μπορούσε να επιφέρει την εξαφάνιση της ανθρωπότητας, τότε γιατί δεν την σταματούν;», είπε.

Η Margaret O’ Mara, ιστορικός τεχνολογίας και καθηγήτρια στο Πανεπιστήμιο της Ουάσιγκτον, δήλωσε ότι η καλή χάραξη της πολιτικής θα πρέπει να ενημερώνεται από πολλές οπτικές και συμφέροντα, όχι μόνο από έναν ή λίγους ανθρώπους, και να διαμορφώνεται με γνώμονα το δημόσιο συμφέρον.

«Η πρόκληση με την τεχνητή νοημοσύνη είναι ότι μόνο πολύ λίγοι άνθρωποι και επιχειρήσεις κατανοούν πραγματικά πώς λειτουργεί και ποιες είναι οι επιπτώσεις της χρήσης της», δήλωσε η O’ Mara, σημειώνοντας ομοιότητες με τον κόσμος της πυρηνικής φυσικής πριν και κατά τη διάρκεια της ανάπτυξης της ατομικής βόμβας από το Manhattan Project.

Παρ΄ όλα αυτά, η O’ Mara δήλωσε ότι πολλοί άνθρωποι σε όλον τον κλάδο της τεχνολογίας υποστηρίζουν ότι ο Altman θα είναι η δύναμη που θα φέρει επανάσταση στην κοινωνία με την τεχνητή νοημοσύνη, αλλά θα την κάνει ασφαλή.

«Αυτή η στιγμή είναι παρόμοια με ό, τι έκαναν οι Jobs και Gates για την προσωπική στιγμή της πληροφορικής στις αρχές της δεκαετίας του 1980, και την στιγμή του λογισμικού το 1990», είπε. «Υπάρχει μία πραγματική ελπίδα ότι μπορούμε να έχουμε μία τεχνολογία που θα καλυτερεύσει τα πράγματα, εάν οι άνθρωποι που την κατασκευάζουν είναι άνθρωποι καλοί, έξυπνοι και ενδιαφέρονται για τα σωστά πράγματα. Ο Sam αυτήν τη στιγμή τα ενσαρκώνει όλα αυτά για την τεχνητή νοημοσύνη».

Ο κόσμος βασίζεται στον Altman να ενεργήσει προς το καλύτερο συμφέρον της ανθρωπότητας με μία τεχνολογία που, κατά δική του παραδοχή, θα μπορούσε να αποτελέσει όπλο μαζικής καταστροφής. Αν και μπορεί να είναι ένας έξυπνος και ικανός ηγέτης, δεν παύει να είναι ακριβώς αυτό : ένας άνθρωπος.

Πηγή:

https://edition.cnn.com/2023/10/31/tech/sam-altman-ai-risk-taker