Μέλλον, Τεχνητή Νοημοσύνη, Τεχνολογία, Ψυχική υγεία

Συναισθηματική τεχνητή νοημοσύνη: Είναι ο Wall-E ή ο Terminator;

Γράφει η Χαρά Μπαμπούρη

Οραματιστείτε ένα κόσμο στον οποίο οι τεχνολογικές εφευρέσεις μπορούν να “διαβάσουν” τα συναισθήματα μας. Μπορεί η ιδέα να ακούγεται σαν σενάριο επιστημονικής φαντασίας, η πραγματικότητα όμως δεν απέχει πολύ. Για παράδειγμα, η startup εταιρεία Hume από το Μανχάταν των Ηνωμένων Πολιτειών ήδη ισχυρίζεται πως έχει αναπτύξει “την πρώτη φωνητική τεχνητή νοημοσύνη στον κόσμο με συναισθηματική νοημοσύνη”.

Τι σημαίνει όμως συναισθηματική τεχνητή νοημοσύνη (emotional AI); Το emotional AI είναι μια αναπτυσσόμενη μορφή τεχνητής νοημοσύνης, που εστιάζει στην ανίχνευση, κατανόηση και ανάλυση των ανθρώπινων συναισθημάτων. Με λίγα λόγια το emotional AI χρησιμοποιεί διάφορα μέσα με σκοπό να καταλάβει και να αλληλεπιδράσει με την ανθρώπινη συναισθηματική ζωή. Μερικά από αυτά είναι:

  • Οι εκφράσεις του προσώπου: Μέσω ανάλυσης εικόνων και βίντεο, το emotional AI μπορεί να “αντιληφθεί” συναισθήματα όπως λύπη, θυμό, χαρά και φόβο, αναλύοντας χαρακτηριστικά όπως η έκφραση των ματιών, ή οι μορφασμοί του προσώπου.
  • Η φωνή: Μέσω της ανάλυσης του τόνου της φωνής, της έντασης και του ρυθμού της ομιλίας μπορεί να ανιχνεύσει συναισθήματα, όπως ο ενθουσιασμός, η βαρεμάρα και η νευρικότητα.
  • Κείμενο: Μέσω της ανάλυσης του λεξιλογίου, της γραμματικής και της στίξης, σε γραπτά μηνύματα ή emailsμπορεί να ανιχνεύσει συναισθήματα όπως θυμό, απογοήτευση ή ειρωνεία.

Όσο εξελίσσεται ο χώρος της τεχνητής νοημοσύνης θα εμφανίζονται ολοένα και περισσότεροι τρόποι πιθανής ανίχνευσης συναισθημάτων. Άλλοι πιθανοί τρόποι ανίχνευσης είναι μέσα από χειρονομίες, δηλαδή την εξωτερική σωματική συμπεριφορά και την παρακολούθηση καρδιακών παλμών.

Πώς μπορεί λοιπόν ένα πρόγραμμα να κατανοήσει τα συναισθήματα μας;

«Εκπαιδεύουμε ένα μεγάλο γλωσσικό μοντέλο που καταλαβαίνει τον τόνο της φωνής σας», λέει ο Διευθύνοντας Σύμβουλος και επικεφαλής επιστήμονας της Hume Alan Cowen. «Αυτό που μας επιτρέπει… είναι να μπορούμε να προβλέψουμε πώς μια δεδομένη ομιλία ή πρόταση θα προκαλέσει μοτίβα συναισθημάτων».

Νωρίτερα φέτος, ο αναπληρωτής καθηγητής Matt Coler και η ομάδα του στο εργαστήριο τεχνολογικής ομιλίας του Πανεπιστημίου του Groningen χρησιμοποίησαν δεδομένα από αμερικανικές κωμικές σειρές, συμπεριλαμβανομένων των Friends και του The Big Bang Theory για να εκπαιδεύσουν μια τεχνητή νοημοσύνη που μπορεί να αναγνωρίσει τον σαρκασμό.

Μπορείτε να σκεφτείτε ότι κάτι τέτοιο ακούγεται χρήσιμο, και ο Coler υποστηρίζει ότι είναι. «Όταν κοιτάμε πώς οι μηχανές διεισδύουν όλο και περισσότερο στις ανθρώπινες ζωές», λέει, «είναι καθήκον μας να βεβαιωθούμε ότι αυτές οι μηχανές μπορούν πραγματικά να βοηθήσουν τους ανθρώπους με χρήσιμο τρόπο».

Ο Coler και οι συνεργάτες του ελπίζουν ότι η δουλειά τους με τον σαρκασμό θα οδηγήσει σε πρόοδο με άλλα γλωσσικά εργαλεία, όπως η ειρωνεία, η υπερβολή και η ευγένεια, επιτρέποντας πιο φυσικές και προσιτές αλληλεπιδράσεις ανθρώπου-μηχανής, και έχουν ήδη ένα εντυπωσιακό ξεκίνημα. Το μοντέλο εντοπίζει με ακρίβεια τον σαρκασμό το 75% των περιπτώσεων, αλλά το υπόλοιπο 25% εγείρει ερωτήματα, όπως: «πόση άδεια πρέπει να δίνουμε στις μηχανές για να ερμηνεύσουν τις προθέσεις και τα συναισθήματά μας, και τι βαθμό ακρίβειας θα απαιτούσε αυτή η άδεια;»

Αυτή είναι μια σημαντική ερώτηση καθώς αρκετοί ειδικοί και επιστήμονες έχουν εκφράσει τις αμφιβολίες τους για την αποτελεσματικότητα της συναισθηματικής τεχνητής νοημοσύνης.

Το βασικό πρόβλημα του emotional AI είναι ότι δεν μπορούμε να ορίσουμε τι είναι τα συναισθήματα. «Βάλτε διάφορους ψυχολόγους μαζί σε ένα δωμάτιο και θα έχετε θεμελιώδεις διαφωνίες», λέει ο  καθηγητής Andrew McStay και διευθυντής του Emotional AI Lab του Πανεπιστημίου του Bangor. «Δεν υπάρχει βασικός, συμφωνημένος ορισμός του τι είναι συναίσθημα».

Ούτε υπάρχει συμφωνία για το πώς εκφράζονται τα συναισθήματα. Η Lisa Feldman Barrett είναι καθηγήτρια ψυχολογίας στο Northeastern University στη Βοστώνη της Μασαχουσέτης και το 2019 συναντήθηκε μαζί με τέσσερις άλλους επιστήμονες έχοντας μια απλή ερώτηση: μπορούμε να συμπεράνουμε με ακρίβεια τα συναισθήματα μόνο από τις κινήσεις του προσώπου; «Διαβάσαμε και συνοψίσαμε περισσότερες από 1.000 εργασίες», λέει ο Barrett. «Και κάναμε κάτι που κανείς άλλος μέχρι σήμερα δεν είχε κάνει: καταλήξαμε σε συμφωνία για το τι λένε τα δεδομένα».

Η συμφωνία; «Δεν μπορούμε».

«Ένας συναισθηματικά έξυπνος άνθρωπος συνήθως δεν ισχυρίζεται ότι μπορεί να βάζει με ακρίβεια μια ετικέτα σε όλα όσα λέει ο καθένας και να σας λέει ότι αυτό το άτομο αισθάνεται αυτήν τη στιγμή 80% θυμό, 18% φόβο και 2% λύπη», λέει ο Edward B. Kang, επίκουρος καθηγητής στο Το Πανεπιστήμιο της Νέας Υόρκης γράφοντας για τη διασταύρωση AI και ήχου. «Για την ακρίβεια, αυτό μου ακούγεται σαν το αντίθετο από αυτό που θα έλεγε ένας συναισθηματικά έξυπνος άνθρωπος».

Σε αυτό μπορούμε να προσθέσουμε το περιβόητο πρόβλημα της προκατάληψης του AI. «Οι αλγόριθμοι είναι τόσο καλοί, όσο και το εκπαιδευτικό τους υλικό», λέει ο Barrett. «Και αν το εκπαιδευτικό τους υλικό είναι προκατειλημμένο κατά κάποιο τρόπο, τότε κατοχυρώνεται αυτή η προκατάληψη στον κώδικα».

Έρευνες έχουν δείξει ότι ορισμένα emotional AI αποδίδουν δυσανάλογα αρνητικά συναισθήματα στα πρόσωπα των μαύρων ανθρώπων, τα οποία θα είχαν σοβαρές και ανησυχητικές επιπτώσεις εάν ενταχθούν σε τομείς όπως οι πιθανότητες πρόσληψης σε εργασία, οι αξιολογήσεις απόδοσης, οι ιατρικές διαγνώσεις ακόμα και η αστυνόμευση. «Πρέπει να φέρουμε (την προκατάληψη) στο προσκήνιο της συζήτησης και του σχεδιασμού νέων τεχνολογιών» λέει η Randi Williams, διευθύντρια προγράμματος στο Algorithmic Justice League (AJL), έναν οργανισμό που εργάζεται για την ευαισθητοποίηση σχετικά με την προκατάληψη στην τεχνητή νοημοσύνη.

Αντίστοιχης άποψης φαίνεται να είναι και η Dr. Timnit Gebru, πρώην υπάλληλος της Google όπου ήταν συν-υπεύθυνη της ομάδας ηθικού AI, και τωρινή συνεργάτης  του AJL, δημοσίευσε ένα ακαδημαϊκό έργο το οποίο προειδοποιούσε για τους κινδύνους του AI που αυξανόμενα χτίζεται στις ζωές μας. Το έργο της σημείωνε πως ο εμφανής κίνδυνος με τέτοια νοημοσύνη είναι τα τεράστια δεδομένα στα οποία βασίζεται. Περαιτέρω αναφέρει ότι αυτά τα δεδομένα: «Υπερ-εκπροσωπούν ηγεμονικές απόψεις και κωδικοποιούν προκαταλήψεις που είναι δυνητικά επιζήμιες για το περιθωριοποιημένους πληθυσμούς» Η Gebru ισχυρίζεται ότι της ζητήθηκε είτε να αποσύρει το έργο είτε να αφαιρέσει το όνομα της, όσο ήταν υπάλληλος της Google.

Σχετικά με τη χρήση του emotional AI και την αστυνόμευση, η Lena Podoletz, ερευνήτρια στο Πανεπιστήμιο του Εδιμβούργου, σε άρθρο της αναφέρει πως η εφαρμογή της συναισθηματικής τεχνητής νοημοσύνης στα πλαίσια της αστυνόμευσης και της ασφάλειας δεν πρέπει να εφαρμόζεται σε δημόσιους χώρους, καθώς υπάρχουν αδύναμα τεκμηριωμένα στοιχεία για την αποτελεσματικότητα τους . Το σημαντικότερο όμως σημείωσε πως είναι ότι αποτελούν μια σοβαρή εισβολή στην ιδιωτική ζωή των ανθρώπων και ανησυχητική επέκτασης της αστυνομικής εξουσίας.

Στη θεωρία η χρήση της τεχνητής νοημοσύνης φαίνεται ενδιαφέρουσα, αλλά και τρομακτική. Από την αρχή της δημιουργίας του AI έχουν υπάρξει πολλοί πιθανοί κίνδυνοι, αλλά και ηθικά διλήμματα σχετικά με την χρήση του.

«Πιστεύουμε πως η ρυθμιστική παρέμβαση από τις κυβερνήσεις θα είναι κρίσιμη για τον μετριασμό των κινδύνων των ολοένα και πιο ισχυρών μοντέλων AI», ανέφερε ο Sam Altman, διευθύνοντα σύμβουλο της εταιρείας Open A.I. στο Old Senate των Ηνωμένων Πολιτειών σχετικά με τον αντίκτυπο της τεχνητής νοημοσύνης.  

Αντίστοιχα η Hume, έχει αναθέσει το πρόβλημα σε ένα συμβούλιο ασφαλείας -ο Hume Initiative– το οποίο μετρά τον διευθύνοντα σύμβολο της ως μέλος. Η Hume Initiative, περιγράφει τον εαυτό της ως μια «μη κερδοσκοπική προσπάθεια  που χαράσσει μια ηθική διαδρομή προς την ενσυναίσθητη τεχνητή νοημοσύνη». Οι  δεοντολογικές οδηγίες περιλαμβάνονται στην πλατφόρμα της Hume Initiative μέσω μιας εκτενούς λίστας «υποστηριζόμενων περιπτώσεων χρήσης» (conditionally supported use cases), σε τομείς όπως οι τέχνες και ο πολιτισμός, η επικοινωνία, η εκπαίδευσης και η υγεία.

Η ανάπτυξη σε αυτούς τους τομείς μπορεί να εξατομικεύσει εμπειρίες και να προσαρμόσει προγράμματα με βάση τις ατομικές ανάγκες του κάθε ατόμου. Ειδικά στους τομείς της εκπαίδευσης και της υγείας, το emotional AI έχει την προοπτική να καλυτερεύσει τη ζωή μια μεγάλης μερίδας ανθρώπων που λόγω τωρινών συνθηκών, βρίσκονται στο περιθώριο.

Παράλληλα, η χρήση του emotional AI στον τομέα της ψυχαγωγίας για τη δημιουργία συναρπαστικών και ρεαλιστικών ταινιών και βιντεοπαιχνιδιών σίγουρα ακούγεται δελεαστική.

Σε μια πολύ μικρότερη λίστα αναφέρονται οι «περιπτώσεις μη υποστηριζόμενης χρήσης» (unsupported use cases) που αναφέρει ευρείες κατηγορίες, όπως η χειραγώγηση και η εξαπάτηση, δίνοντας μερικά παραδείγματα όπως ο ψυχολογικός πόλεμος, τα deep fakes, και το “optimising for user engagement”.

«Επιτρέπουμε στους προγραμματιστές να αναπτύξουν τις εφαρμογές τους μόνο εάν αναφέρονται ως υποστηριζόμενες περιπτώσεις χρήσης» , λέει ο Cowen στην εφημερίδα The Guardian. «Φυσικά, η Hume Initiative προσκαλεί την ανατροφοδότηση και είναι ανοιχτή στην επανεξέταση νέων περιπτώσεων χρήσης καθώς αυτές εμφανίζονται».

Όπως συμβαίνει με όλα τα AI, ο σχεδιασμός στρατηγικών διαφύλαξης που μπορούν να συμβαδίσουν με την ταχύτητα ανάπτυξης του emotional AI  είναι μια πρόκληση.

Τον Μάιο του 2024, εγκρίθηκε ο νόμος της Ευρωπαϊκής Ένωσης για την τεχνητή νοημοσύνη (European Union AI Act), η οποία απαγορεύει τη χρήση της τεχνητής νοημοσύνης για τη χειραγώγηση της ανθρώπινης συμπεριφοράς και απαγορεύει την τεχνολογία ανίχνευσης συναισθημάτων από διάφορους χώρους, όπως τον χώρο εργασίας και τα σχολεία. Παρόλα αυτά ο νόμος διακρίνει την χρήση του AI για την αναγνώριση έκφρασης συναισθημάτων (η οποία είναι επιτρεπτή) από τη δυνατότητα να συμπεράνει τη συναισθηματική κατάσταση του ατόμου από αυτά (που δεν επιτρέπεται). Σύμφωνα με τον νόμο, ένας διευθυντής τηλεφωνικού κέντρου που χρησιμοποιεί το emotional AI για επιτήρηση θα μπορούσε πιθανόν να πειθαρχήσει έναν υπάλληλο χρησιμοποιώντας το emotional AI εάν αυτό λέει ότι ακούγεται “γκρινιάρης” στις κλήσεις, μόνο εφόσον δεν υπάρχει το συμπέρασμα ότι είναι στην πραγματικότητα γκρινιάρης. «Οποιοσδήποτε, ειλικρινά, θα μπορούσε να χρησιμοποιήσει αυτό το είδος τεχνολογίας χωρίς να βγάλει σαφές συμπέρασμα ως προς τα εσωτερικά συναισθήματα ενός ατόμου και να λάβει αποφάσεις που θα μπορούσαν να τον επηρεάσουν», λέει ο McStay.

Όπως συμβαίνει με κάθε νέα τεχνολογία, το μέλλον της συναισθηματικής τεχνητής νοημοσύνης βρίσκεται στα χέρια εκείνων που την ελέγχουν και τις προθέσεις αυτών. Όπως εξηγεί η  Randi Williams του AJL: «Για να αγκαλιάσουμε αυτά τα συστήματα με επιτυχία ως κοινωνία, πρέπει να κατανοήσουμε πώς τα συμφέροντα των χρηστών δεν ευθυγραμμίζονται σωστά με τους θεσμούς που δημιουργούν την τεχνολογία».

Μέχρι να το κάνουμε αυτό και να ενεργήσουμε σύμφωνα με αυτό, η συναισθηματική τεχνητή νοημοσύνη είναι πιθανό να προκαλέσει ανάμεικτα συναισθήματα.

Όσον αφορά το αν η συναισθηματική τεχνητή νοημοσύνη είναι ο Wall-E ή ο Terminator, θα αφήσουμε εσάς να αποφασίσετε.

Πηγές:

https://www.theguardian.com/technology/article/2024/jun/23/emotional-artificial-intelligence-chatgpt-4o-hume-algorithmic-bias

https://www.researchgate.net/publication/360408987_We_have_to_talk_about_emotional_AI_and_crime