Έρευνες, Τεχνητή Νοημοσύνη

Είναι το “ChatGPT” αρκετά έξυπνο ώστε να λύνει προβλήματα χωρίς λόγια;

Γράφει η Βίκυ Βούλτσου, μεταπτυχιακή φοιτήτρια Εγκληματολογικής Ψυχολογίας

Η νέα μελέτη των ερευνητών του UCLA λέει ότι το γλωσσικό μοντέλο «GPT-3» μπορεί να σκεφτεί με αναλογίες, αλλά δεν μπορούν να επιβεβαιώσουν ότι οι απαντήσεις δεν υπάρχουν ήδη στα δεδομένα εκπαίδευσης.

Η τελευταία από μια σειρά ερευνητικών εργασιών για την τεχνητή νοημοσύνη διατυπώνει μερικούς αρκετά παράξενους ισχυρισμούς σχετικά με το πώς τα μοντέλα βαθιάς μάθησης έχουν κάποιες λεπτές, μη υλοποιημένες γνωστικές ικανότητες που μοιάζουν ή ακόμη και ξεπερνούν τους ανθρώπους. Παρόλο που οι ερευνητές διαπίστωσαν ότι ένα σύγχρονο μοντέλο τα πάει καλά σε τεστ πολλαπλής επιλογής που δεν απαιτούν απαραίτητα την χρήση γλώσσας, δεν έχουν ακόμα κάποια ειλικρινή άποψη για το αν η τεχνητή νοημοσύνη βασίζεται απλώς στις απαντήσεις της με βάση τα μη διαφανή δεδομένα εκπαίδευσης.

Οι ερευνητές του Πανεπιστημίου της Καλιφόρνιας στο Λος Άντζελες δοκίμασαν να δώσουν «αναλογικά καθήκοντα» στο μεγάλο γλωσσικό μοντέλο «GPT-3» και διαπίστωσαν ότι ήταν στα ίδια επίπεδα ή πάνω από τις «ανθρώπινες ικανότητες» για την επίλυση σύνθετων προβλημάτων συλλογισμού. Το UCLA έσπευσε να διατυπώσει -μάλλον εξωφρενικούς- ισχυρισμούς σχετικά με την έρευνα στο δελτίο Τύπου που εξέδωσε, θέτοντας το ερώτημα αν η τεχνητή νοημοσύνη «χρησιμοποιεί ένα θεμελιωδώς νέο είδος γνωστικής διαδικασίας».

Αυτή είναι μια εγγενώς προκατειλημμένη ερώτηση που βασίζεται σε μια συναισθηματική θεώρηση των συστημάτων τεχνητής νοημοσύνης, αλλά ας δούμε λίγο βαθύτερα. Σε έρευνά τους, οι Taylor Webb, Keith Holyoak και Hongjing Lu – που δημοσιεύτηκε στο περιοδικό «Nature Human Behaviour» (Φυσική Ανθρώπινη Συμπεριφορά) – συνέκριναν τις απαντήσεις της τεχνητής νοημοσύνης με αυτές 40 προπτυχιακών φοιτητών και διαπίστωσαν ότι το ρομπότ είχε επιδόσεις στο υψηλότερο σημείο της βαθμολογίας των ανθρώπων και ότι έκανε ακόμη και μερικά από τα ίδια λάθη. Συγκεκριμένα, οι ερευνητές βασίσαν τα τεστ τους σε μη λεκτικό τεστ «Raven’s Progressive Matrices» που αναπτύχθηκε το 1939. Πρόκειται για έναν κατάλογο 60 ερωτήσεων πολλαπλής επιλογής που γίνονται όλο και πιο δύσκολες καθώς προχωρούν και απαιτούν κυρίως από τους εξεταζόμενους να αναγνωρίσουν ένα μοτίβο. Κάποιοι έχουν προεκτείνει το «Raven’s» για να μετρήσει το IQ ως βαθμολογία για τη γενική γνωστική ικανότητα, ειδικά από τη στιγμή που ορισμένοι υποστηρικτές λένε ότι δεν περιέχει πολλές εθνικές ή πολιτισμικές προκαταλήψεις σε σύγκριση με άλλα, εγγενώς προκατειλημμένα τεστ νοημοσύνης.

Το έγγραφο δεν προσπαθεί να αποδώσει ένα χαμηλό σκορ IQ στην τεχνητή νοημοσύνη. Ζήτησαν επίσης από το ρομπότ να λύσει μια σειρά από ερωτήσεις αναλογίας SAT που αφορούσαν ζεύγη λέξεων. Ας πούμε ότι ένα λαχανικό σχετίζεται με το λάχανο. Επομένως, ένα έντομο είναι ισοδύναμο με ένα «σκαθάρι», και ούτω καθεξής. Οι ερευνητές ισχυρίστηκαν ότι, εξ όσων γνωρίζουν, οι ερωτήσεις δεν είχαν εμφανιστεί στο διαδίκτυο και ότι ήταν «απίθανο» να έχουν απορροφηθεί ως μέρος των δεδομένων εκπαίδευσης του «GPT-3». Και πάλι, η τεχνητή νοημοσύνη απέδωσε σε επίπεδο ελαφρώς υψηλότερο από τον μέσο φοιτητή.

Υπάρχουν αρκετά προβλήματα στα οποία η τεχνητή νοημοσύνη δεν τα καταφέρνει, ή ίσως είναι περισσότερο αποδοτική στις θετικές επιστήμες έναντι των ανθρωπιστικών. Ήταν πολύ λιγότερο ικανή στην επίλυση προβλημάτων αναλογίας που βασίζονται σε σύντομες ιστορίες, αν και το νεότερο, πιο επεκτατικό «GPT-4» ήταν συνολικά καλύτερο στο έργο αυτό. Του ζητήθηκε να χρησιμοποιήσει ένα σωρό οικιακά αντικείμενα για να μεταφέρει τσίχλες από το ένα δωμάτιο στο άλλο και η τεχνητή νοημοσύνη βρήκε «παράξενες λύσεις».

Ο Webb και οι συνεργάτες του εργάζονται πάνω σε αυτό το πρόβλημα εδώ και σχεδόν μισό χρόνο και από την αρχική τους προδημοσίευση έχουν προσθέσει περισσότερες δοκιμές στο μοντέλο. Όλες αυτές οι δοκιμές τους οδήγησαν στο να αρχίσουν να διατυπώνουν ανοιχτά θεωρίες σχετικά με το πώς το «GPT-3» θα μπορούσε να σχηματίζει κάποιου είδους «διαδικασία χαρτογράφησης» παρόμοια με τον τρόπο που οι άνθρωποι θεωρητικά αντιμετωπίζουν τέτοια προβλήματα. Οι ερευνητές ενθουσιάστηκαν με την ιδέα ότι η τεχνητή νοημοσύνη θα μπορούσε να έχει αναπτύξει κάποιο εναλλακτικό είδος μηχανικής νοημοσύνης.

Το «χωροταξικό» μέρος των δοκιμασιών συχνά περιλάμβανε σχήματα και απαιτούσε από την τεχνητή νοημοσύνη να μαντέψει το σωστό σχήμα ή διάγραμμα με βάση προηγούμενα, παρόμοια σχήματα. Οι συγγραφείς της μελέτης συνέχισαν να κάνουν περαιτέρω συγκρίσεις με τους ανθρώπους-εξεταζόμενους, λέγοντας ότι η τεχνητή νοημοσύνη μοιράζεται πολλά παρόμοια χαρακτηριστικά της «ανθρώπινης αναλογικής συλλογιστικής». Ουσιαστικά, οι ερευνητές είπαν ότι η τεχνητή νοημοσύνη συλλογιζόταν με τους ίδιους τρόπους που το έκαναν οι άνθρωποι, μέσω του να έχουν την αίσθηση της σύγκρισης των σχημάτων.

Ο Webb και οι συνάδελφοί του δημοσίευσαν για πρώτη φορά ένα προσχέδιο της εργασίας τον Δεκέμβριο. Εκεί, ο ερευνητής ισχυρίστηκε ότι το «GPT-3» δεν είχε «καμία εκπαίδευση» σε αυτές τις δοκιμασίες ή σε συναφείς εργασίες.

Υπάρχει ένα θεμελιώδες πρόβλημα με οποιονδήποτε προσπαθεί να ισχυριστεί ότι υπάρχει κάτι στο οποίο η τεχνητή νοημοσύνη δεν έχει εκπαιδευτεί. Είναι δυνατόν να μην υπάρχει απολύτως τίποτα βασισμένο στη γλώσσα στο τεστ του «Raven» στα 45 πλήρη terabytes δεδομένων εκπαίδευσης που χρησιμοποιεί η τεχνητή νοημοσύνη; Ίσως, αλλά ο δημιουργός του «GPT-3», η «OpenAI», δεν έχει δημοσιεύσει πλήρη κατάλογο με το τι περιέχεται μέσα στο σύνολο δεδομένων από το οποίο έμαθε αυτό το νέο μεγάλο γλωσσικό μοντέλο τους. Αυτό συμβαίνει για διάφορους λόγους, ο ένας είναι να κρατήσουν την ιδιόκτητη τεχνητή νοημοσύνη όσο το δυνατόν περισσότερο “ασφαλισμένη” για να πουλήσουν καλύτερα τις υπηρεσίες τους. Ο δεύτερος είναι για να εμποδίσουν ακόμα περισσότερους ανθρώπους να τους μηνύσουν για παραβίαση πνευματικών δικαιωμάτων.

Προηγουμένως, ο διευθύνων σύμβουλος της Google, Sundar Pichai ισχυρίστηκε σε συνέντευξή του ότι με κάποιο τρόπο, το chatbot “Bard” της Google έμαθε μόνο του Μπενγκάλι. Το θέμα είναι ότι οι ερευνητές διαπίστωσαν ότι τα Μπενγκάλι και άλλες αλληλεπικαλυπτόμενες γλώσσες υπήρχαν ήδη στα δεδομένα εκπαίδευσης. Τα περισσότερα από τα δεδομένα της τεχνητής νοημοσύνης επικεντρώνονται στα αγγλικά και τη “Δύση”, αλλά η εκμάθησή της είναι τόσο ευρεία και καλύπτει ένα τόσο μεγάλο εύρος πληροφοριών, που υπάρχει πιθανότητα να απορρόφησε και κάποιο παράδειγμα επίλυσης προβλημάτων χωρίς λέξεις.

Η ανακοίνωση του UCLA αναφέρει ακόμη ότι οι ερευνητές δεν έχουν ιδέα για το πώς ή γιατί η τεχνητή νοημοσύνη κάνει κάτι τέτοιο, καθώς δεν έχουν πρόσβαση στην μυστηριώδη μέθοδο εκμάθησης που χρησιμοποιεί η OpenAI. Αυτό που κάνει αυτή η δημοσίευση και άλλες παρόμοιες, είναι να δημιουργήσει ακόμα περισσότερη υστερία σχετικά με την τεχνητή νοημοσύνη που περιέχει κάποια μορφή πραγματικής «νοημοσύνης». Ο διευθύνων σύμβουλος της OpenAI έχει αναφερθεί εκτενώς στις ανησυχίες για την Γενική Τεχνητή  Νοημοσύνη, ένα είδος υπολογιστικού συστήματος που είναι πραγματικά έξυπνο. Αλλά το τι σημαίνει αυτό στην πράξη είναι ασαφές. Ο Altman περιέγραψε το GPT-4 ως μια «εξωγήινη νοημοσύνη», σε συνέντευξή του στο “The Atlantic”, αναφέροντας ότι κατάφερε να γράψει κώδικα υπολογιστή, για τον οποίο δεν είχε προγραμματιστεί ρητά.

Αλλά είναι επίσης ένα εικονικό παιχνίδι. Ο Altman δεν θα δώσει στη δημοσιότητα τα δεδομένα εκπαίδευσης της τεχνητής νοημοσύνης. Καθώς, όλο αυτό είναι ένα μεγάλο μυστήριο, η εταιρεία, οι υποστηρικτές της τεχνητής νοημοσύνης και ακόμη και οι καλοπροαίρετοι ερευνητές, μπορούν να παρασυρθούν στη διαφημιστική εκστρατεία με ισχυρισμούς ότι τα γλωσσικά μοντέλα θα απελευθερωθούν από το ψηφιακό περιβάλλον που τα περιέχει.

Πηγή:

https://gizmodo.com/ucla-study-of-chatgpt-analogical-reasoning-1850693490