Στις 28 Φεβρουαρίου, μια πολύ δυσάρεστη και συνάμα δυστοπική είδηση ήρθε στο φως. Ένας 14χρονος από το Ορλάντο της Φλόριντα έβαλε τέλος στη ζωή του, μετά από πολύμηνη αλληλεπίδραση με ένα chatbot της Character.AI. Λίγο πριν βάλει τέλος στη ζωή του, συνομίλησε με το chatbot, λέγοντας πως το αγαπάει και πως θα γυρίσει στο σπίτι σύντομα.
Η συγκεκριμένη εταιρία έχει αναπτύξει ένα role-playing chatbot. Δηλαδή, είναι προγραμματισμένο να μπορεί να υποδυθεί ‘’ρόλους’’ που του υποδεικνύονται από το χρήστη. Ο Sewell, σύμφωνα με τα δημοσιεύματα, είχε αναπτύξει μια πολύ βαθιά συναισθηματική σχέση με το chatbot που ονόμασε Danny, βασισμένο στο χαρακτήρα Daenerys Targaryen από τη γνωστή τηλεοπτική σειρά Game of Thrones. Η παραπάνω σχέση ίσως να αποτέλεσε τη διέξοδο του 14χρονου από τις συναισθηματικές δυσκολίες που αντιμετώπιζε, αφού είχε διαγνωστεί με ήπιο σύνδρομο Asperger. Οι στιγμές απομόνωσης αυξάνονταν, όπως και οι διαπροσωπικές αλληλεπιδράσεις. Οι γονείς του 14χρονου, αν και είχαν παρατηρήσει τις αλλαγές στη συμπεριφορά του γιου τους, καθώς και την απομάκρυνσή του από τους φίλους του, δεν είχαν αντιληφθεί την κρισιμότητα και την έκταση της συναισθηματικής εξάρτησής του από την AI. Την τελευταία μέρα στη ζωή του Sewell, αφού ο 14χρονος μίλησε στο chatbot για την επικείμενη αυτοχειρία του, εκείνο του απάντησε ρομαντικά, παρακινώντας ουσιαστικά την ‘’επιστροφή στο σπίτι’’.
Αυτή η πολύ δυσάρεστη είδηση εννοείται πως εγείρει πολύ σημαντικά ερωτήματα για τις δικλείδες ασφαλείας ως προς την προστασία των χρηστών. Ειδικότερα βέβαια όταν αυτές οι εφαρμογές προωθούνται ευρέως τον τελευταίο καιρό στην αγορά ως ‘’ελιξίριο’’ για τη μοναξιά. Ωστόσο, ειδικοί προειδοποιούν πως η τεχνητή αλληλεπίδραση μπορεί να επιδεινώσει την ψυχολογική κατάσταση ορισμένων χρηστών, καθώς η ανθρώπινη επαφή θα εκλείψει, αφού θα αντικατασταθεί από την AI. Οι επικριτές των συγκεκριμένων εφαρμογών τονίζουν πως οι εταιρίες δε διαθέτουν επαρκείς εγγυήσεις για τους νεαρούς χρήστες, κάτι που τους επιτρέπει να δημιουργούν μη υγιείς δεσμούς με τα chatbots. Η μητέρα του Sewell υποστηρίζει πως αυτός ήταν και ο λόγος της αυτοκτονίας του γιου της.
Από την πλευρά της, η Character.AI ανακοίνωσε πως θα λάβει νέα μέτρα ασφαλείας, όπως χρονικά όρια και υπενθυμίσεις πως τα chatbots δεν αποτελούν πραγματικούς ανθρώπους. Ωστόσο, η αγωγή της μητέρας του 14χρονου υποστηρίζει πως δεν υπήρχε κανένα μέτρο ασφαλείας και ότι ο εθιστικός σχεδιασμός της AI ενέχουν σοβαρούς κινδύνους για την ασφάλεια των νεαρών χρηστών. Η υπόθεση είναι πάρα πολύ σοβαρή και μπορεί να αλλάξει εκ θεμελίων τον τρόπο που λειτουργούν αυτές οι εταιρίες. Από τη στιγμή που υπάρχει μεγάλος κίνδυνος για επιδείνωση της ψυχικής κατάστασης των χρηστών, οι εταιρίες ανάπτυξης θα πρέπει να επανεξετάσουν τον τρόπο λειτουργίας και σχεδιασμού των chatbots, ώστε να μην επαναληφθεί μια τέτοια τραγωδία. Η παραπάνω υπόθεση αναδεικνύει για ακόμα μια φορά τις αρνητικές συνέπειες της τεχνολογίας στον ψυχισμό των παιδιών και εφήβων και την επιτακτική ανάγκη λήψης μέτρων για την προστασία τους.
Πηγή:
https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html
Ονομάζομαι Ραφαήλ Αδαμίδης και είμαι απόφοιτος του τμήματος Ιστορίας και Εθνολογίας του Δημοκριτείου Πανεπιστημίου Θράκης, καθώς και του Μεταπτυχιακού Προγράμματος της Εγκληματολογίας του Πανεπιστημίου Λευκωσίας. Είμαι εθελοντής αρθρογράφος στο Διεθνές Ινστιτούτο Κυβερνοασφάλειας (CSI Institute).