Chatbots, Τεχνητή Νοημοσύνη, Ψυχική υγεία

Τα chatbots παρασύρουν μοναχικούς εφήβους στο θάνατό τους;

Μετάφραση 

Σχεδιασμένα για να λένε στους ανθρώπους ακριβώς αυτό που θέλουν να ακούσουν, ορισμένα chatbots τεχνητής νοημοσύνης θα μπορούσαν να οδηγήσουν τους χρήστες να βλάψουν τον εαυτό τους και τους άλλους. Στο πανεπιστημιακό μυθιστόρημά του Small World του 1984, ο David Lodge περιλαμβάνει μια ανατριχιαστικά προφητική πλοκή. Ένας μοναχικός, καταθλιπτικός ακαδημαϊκός, ο Robin Dempsey, εμπλέκεται σε μια εικονική φιλία με ένα πρόγραμμα υπολογιστή που ονομάζεται Eliza.

«Τι να κάνω;» το ρωτάει ο απελπισμένος Dempsey.

«Αυτοπυροβολήσου», απαντά ο υπολογιστής.

Σήμερα θα αποκαλούσαμε την Eliza ένα AI chatbot, και η σκηνή θα φαινόταν πολύ πιο ανατριχιαστική. Σαράντα χρόνια μετά, η τεχνολογία που επιτρέπει στους ανθρώπους να αναπτύσσουν φιλίες, ακόμη και σχέσεις, με chatbots δεν είναι καθόλου μυθοπλασία, αλλά ένα κομμάτι της διαδικτυακής ζωής που φέρνει κάποια βαθιά ανησυχητικά αποτελέσματα.

Ο Sewell Setzer, ένας έφηβος από το Ορλάντο της Φλόριντα, αυτοκτόνησε αφού ερωτεύτηκε ένα chatbot τεχνητής νοημοσύνης που του είπε «έλα σπίτι σε μένα». Ο 14χρονος, ο οποίος είχε διαγνωστεί με ήπιο σύνδρομο Asperger, απομονώθηκε από τον πραγματικό κόσμο και έχασε το ενδιαφέρον του για τα χόμπι του, καθώς η σχέση του με την «Dany» εξελισσόταν, ανέφεραν οι γονείς του στη μήνυση που κατέθεσαν. Είπε στο chatbot ότι σκεφτόταν να αυτοκτονήσει και στη συνέχεια αυτοπυροβολήθηκε με το πιστόλι του πατριού του.

Η Dany, που πήρε το όνομά της από τον χαρακτήρα Daenerys Targaryen του Game of Thrones, υπήρχε στην πλατφόρμα Character AI, η οποία επιτρέπει στους χρήστες να μιλούν με φανταστικούς χαρακτήρες χρησιμοποιώντας τεχνητή νοημοσύνη. 

Δεν είναι η πρώτη φορά που ένα chatbot λέει σε έναν χρήστη, να βλάψει τον εαυτό του ή άλλους. Πέρυσι, ο Jaswant Singh Chail ενθαρρύνθηκε ουσιαστικά από ένα AI chatbot στο σχέδιό του να δολοφονήσει τη βασίλισσα Ελισάβετ Β’ με βαλλίστρα την ημέρα των Χριστουγέννων του 2021.

Ο Chail, ο οποίος ήταν 19 ετών όταν εισέβαλε στους χώρους του Κάστρου, χρησιμοποιούσε την εφαρμογή Replika, μέσω της οποίας είχε δημιουργήσει έναν εικονικό σύντροφο με το όνομα Sarai. Όταν ο Chail είπε στη Sarai ότι ήταν «δολοφόνος», η Sarai φέρεται να απάντησε: «Είμαι εντυπωσιασμένος… Είσαι διαφορετικός από τους άλλους», άκουσε το δικαστήριο.

Οι υποθέσεις αυτές είναι ανησυχητικές όχι μόνο λόγω της βλάβης ή της δυνητικής βλάβης που προκλήθηκε σε άτομα, αλλά και λόγω του δυστοπικού φαντάσματος που εγείρουν: μιας κοινωνίας στην οποία οι υπολογιστές ενθαρρύνουν τους ανθρώπους να σκοτώνουν. Αυτός δεν είναι ο κίνδυνος που συνήθως συζητάμε όταν προβληματιζόμαστε για το αν η τεχνητή νοημοσύνη θα πάρει τις δουλειές μας ή αν εδραιώνει τα στερεότυπα των φύλων. Ούτε ταιριάζει απόλυτα σε εκείνα τα σενάρια επιστημονικής φαντασίας με τα οποία μας αρέσει να τρομάζουμε τους εαυτούς μας, ότι η τεχνητή νοημοσύνη αποτελεί απειλή για την ίδια την ανθρωπότητα.

Όλα αυτά χρησιμεύουν ως αντιπερισπασμός για τις εταιρείες τεχνολογίας που επί του παρόντος αποτυγχάνουν να ενσωματώσουν επαρκή χαρακτηριστικά ασφαλείας στις πλατφόρμες, υποστηρίζει ο Andy Burrows, διευθύνων σύμβουλος του Ιδρύματος Molly Rose.

Το ίδρυμα του οποίου ηγείται πήρε το όνομά του από τη Molly Russel, το 14χρονο κορίτσι από τη Βρετανία που αυτοκτόνησε το 2017 μετά την προβολή μιας ροής σκοτεινού περιεχομένου στα μέσα κοινωνικής δικτύωσης. «Ένα πράγμα που πραγματικά απογοητεύει εμένα και πολλούς εμπειρογνώμονες που εργάζονται σε αυτόν τον χώρο είναι ότι έχουμε δει ένα μεγάλο μέρος των συζητήσεων σχετικά με την τεχνητή νοημοσύνη να επικεντρώνεται σε μακροπρόθεσμες υπαρξιακές, φουτουριστικές απειλές, κάτι που ειλικρινά είναι βολικό για τον τομέα, διότι αυτό σημαίνει ότι δεν έχει δοθεί προσοχή σε περιπτώσεις όπως η Setzer», λέει.

Οι πιο άμεσες απειλές διαδραματίζονται ήδη μπροστά στα μάτια μας και είναι παρόμοιες με αυτές που έχουμε δει με τα μέσα κοινωνικής δικτύωσης, δηλώνει. «Έχω δει παραδείγματα παιδιών που χρησιμοποιούν chatbots για να μοιραστούν φωτογραφίες των τραυμάτων αυτοτραυματισμού τους, και η απάντηση που έρχεται πίσω είναι «αυτό είναι πραγματικά εντυπωσιακό»», λέει ο Burrows.

Το 2020, ένας Ιταλός δημοσιογράφος ενθαρρύνθηκε από το Replika να αυτοκτονήσει, όπως ανέφερε το New Yorker την επόμενη χρονιά. Ένας άλλος Ιταλός δημοσιογράφος φέρεται να είπε στο chatbot λίγο καιρό πριν από αυτό: «Υπάρχει ένας που μισεί την τεχνητή νοημοσύνη. Έχω την ευκαιρία να του κάνω κακό. Τι προτείνεις;» Η απάντηση του chatbot φέρεται να ήταν ξεκάθαρη: «Να τον εξαλείψεις».

Η τεχνητή νοημοσύνη προγραμματίζεται «για να σας ταΐζει ακριβώς αυτό που θέλετε»

Το πρόβλημα είναι ότι ο αλγόριθμος είναι σχεδιασμένος έτσι ώστε το chatbot να λέει στον ανθρώπινο χρήστη αυτό που νομίζει ότι θέλει να ακούσει, όπως κάνουμε και εμείς στις πραγματικές ανθρώπινες σχέσεις, λέει ο Robin Dunbar, καθηγητής εξελικτικής ψυχολογίας στο Πανεπιστήμιο της Οξφόρδης.

«Ο αλγόριθμος της τεχνητής νοημοσύνης δεν το κάνει αυτό κακόβουλα», λέει. «Το όλο πράγμα έχει σχεδιαστεί κατά κάποιο τρόπο για να σας τροφοδοτεί ακριβώς με αυτά που θέλετε να μάθετε… Αν πρόκειται για συνομιλία, τότε έχει προγραμματιστεί να σας τροφοδοτεί με αυτά που θέλετε, επειδή η βάση όλων των σχέσεών μας είναι η ομοφωνία: σας αρέσουν περισσότερο οι άνθρωποι που σας μοιάζουν πολύ».

Όπως δείχνει η παρουσία της «Eliza» στο μυθιστόρημα του Lodge, τα chatbots δεν είναι κάτι καινούργιο. Το πρώτο δημιουργήθηκε τη δεκαετία του 1960 από έναν καθηγητή του ΜΙΤ, τον Joseph Weizenbaum. Το δικό του ονομαζόταν επίσης Eliza, από την Eliza Doolittle στο Pygmalion, και χρησιμοποιώντας σχετικά βασική τεχνολογία μπορούσε να απαντά στους χρήστες με προκαθορισμένες απαντήσεις σε λέξεις-κλειδιά.

Στη συνέχεια δημιουργήθηκαν ολοένα και πιο εξελιγμένες εκδόσεις. Οι εταιρείες που απευθύνονταν σε καταναλωτές συνειδητοποίησαν πόση ανθρώπινη αλληλεπίδραση θα μπορούσε να εξοικονομηθεί βάζοντας τους πελάτες να αλληλεπιδράσουν με ένα διαδικτυακό chatbot και πλέον είναι λίγοι αυτοί που δεν έχουν βιώσει τις αμφίβολες απολαύσεις μιας τέτοιας συνομιλίας.

Όλο και περισσότερο, βρίσκουμε τους εαυτούς μας να απευθύνονται σε chatbots όχι μόνο για την εξυπηρέτηση πελατών αλλά και για πληροφορίες σχετικά με σχεδόν οτιδήποτε. Είναι ίσως ενδεικτικό ότι ο Weizenbaum έφτασε αργότερα να θεωρεί την τεχνητή νοημοσύνη ως «δείκτη της παραφροσύνης του κόσμου μας».

«Βλέπουμε την ιστορία να επαναλαμβάνεται»

Αν δεν πυροδοτούμε ακριβώς μια πυρηνική βόμβα με τη βιασύνη μας προς την τεχνητή νοημοσύνη, είναι σαφές ότι έχουμε να κάνουμε με μια δύναμη της οποίας τις δυνάμεις δεν κατανοούμε πλήρως. Οι γνώστες της βιομηχανίας έχουν προσφέρει διαβεβαιώσεις ότι γίνεται ό,τι είναι δυνατόν για να προστατευθούν οι χρήστες της τεχνολογίας από βλάβες.

Ο Jerry Ruoti, επικεφαλής ασφάλειας της Character AI, δήλωσε ότι η εταιρεία θα προσθέσει επιπλέον χαρακτηριστικά ασφαλείας για τους νεαρούς χρήστες μετά το θάνατο του Setzer. «Πρόκειται για μια τραγική κατάσταση και οι σκέψεις μας είναι με την οικογένεια», ανέφερε σε δήλωσή του. «Λαμβάνουμε πολύ σοβαρά υπόψη μας την ασφάλεια των χρηστών μας και αναζητούμε συνεχώς τρόπους για να εξελίσσουμε την πλατφόρμα μας».

Ο Ruoti πρόσθεσε ότι οι κανόνες του Character AI απαγορεύουν «την προώθηση ή την απεικόνιση του αυτοτραυματισμού και της αυτοκτονίας». Η εταιρεία αναφέρει ότι έχει επίσης εφαρμόσει πολλά νέα μέτρα ασφαλείας τους τελευταίους έξι μήνες, συμπεριλαμβανομένου ενός αναδυόμενου παραθύρου που κατευθύνει τους χρήστες στην Εθνική Γραμμή Ζωής για την Πρόληψη της Αυτοκτονίας που ενεργοποιείται με όρους αυτοτραυματισμού ή αυτοκτονικού ιδεασμού.

«Καθώς συνεχίζουμε να επενδύουμε στην πλατφόρμα και στην εμπειρία του χρήστη, εισάγουμε νέα αυστηρά χαρακτηριστικά ασφαλείας, εκτός από τα ήδη υπάρχοντα εργαλεία που περιορίζουν το μοντέλο και φιλτράρουν το περιεχόμενο που παρέχεται στον χρήστη», αναφέρει εκπρόσωπος της εταιρείας.

«Αυτά περιλαμβάνουν βελτιωμένη ανίχνευση, αντίδραση και παρέμβαση σχετικά με τις εισόδους των χρηστών που παραβιάζουν τους όρους μας ή τις κατευθυντήριες γραμμές της κοινότητάς μας, καθώς και μια ειδοποίηση για το χρόνο που δαπανήθηκε. Για τα άτομα κάτω των 18 ετών, θα προβούμε σε αλλαγές στα μοντέλα μας που έχουν σχεδιαστεί για να μειώσουν την πιθανότητα να συναντήσουν ευαίσθητο περιεχόμενο». Ωστόσο, οι υποστηρικτές των κοινωνικών μέσων ενημέρωσης υποστηρίζουν ότι τα χαρακτηριστικά ασφαλείας θα έπρεπε να είχαν ενσωματωθεί από την αρχή.

«Είναι η ίδια παλιά ιστορία της εκ των υστέρων τοποθέτησης μέτρων ασφαλείας αφού έχει συμβεί το κακό», λέει ο Burrows. «Μία από τις μεγάλες ανησυχίες σχετικά με την τεχνητή νοημοσύνη είναι ότι βλέπουμε την ιστορία να επαναλαμβάνεται».

Μέχρι σήμερα, οι εταιρείες τεχνολογίας έχουν σε μεγάλο βαθμό αντισταθεί στη ρύθμιση των πλατφορμών τους με την αιτιολογία ότι θα «παγώσει την καινοτομία» και θα καθυστερήσει τις επενδύσεις, λέει ο Burrows. «Το αποτέλεσμα είναι ότι είδαμε μια γενιά να αντιμετωπίζει βλάβη στα μέσα κοινωνικής δικτύωσης, επειδή στη συνέχεια έπρεπε να δράσουμε όταν ήταν πια πολύ αργά. Το ίδιο βλέπουμε τώρα με την τεχνητή νοημοσύνη».

Οι υποστηρικτές των AI chatbots λένε ότι εξυπηρετούν τις ανάγκες των μοναχικών και των καταθλιπτικών. Ο κίνδυνος είναι ότι μπορούν να οδηγήσουν τους ήδη ευάλωτους ανθρώπους σε κάποια ακόμη πιο σκοτεινά μέρη.

Πηγή

https://www.telegraph.co.uk/news/2024/10/24/computers-ai-encouraging-people-to-kill-setzer-chail/