Chatbots, Τεχνητή Νοημοσύνη

Πως η Google δίδαξε την τεχνητή νοημοσύνη να διορθώνει τον εαυτό της

Μεταφράζει η Μαρία Μηνούδη, Φοιτήτρια Εγκληματολογικής Ψυχολογίας

Γίνεται να σταματήσουν τα chatbots από το να επινοούν πράγματα;

Από την ημέρα που τα chatbots εμφανίστηκαν τον προηγούμενο χρόνο, οι δημιουργοί τους προειδοποίησαν τους χρήστες να μην τα εμπιστεύονται. Το κείμενο που παράγεται από εργαλεία όπως το ChatGPT δεν βασίζεται πάντοτε σε τεκμηριωμένα και αποδεδειγμένα γεγονότα. Αντιθέτως, τα chatbots είναι προγνωστικά, κάνουν δηλαδή πιθανολογικές προγνώσεις σχετικά με ποια λέξη φαίνεται να είναι πιο σωστή με βάση το τεράστιο σώμα κειμένων στο οποίο εκπαιδεύτηκαν μεγάλα γλωσσικά μοντέλα.

Ως αποτέλεσμα, τα chatbots είναι συχνά εύκολο να παρέχουν λανθασμένες πληροφορίες χωρίς να το γνωρίζουν οι χρήστες (confidently wrong). Μπορούν να ξεγελάσoουν ακόμη και ανθρώπους με υψηλό μορφωτικό επίπεδο, όπως φάνηκε φέτος με την υπόθεση ενός δικηγόρου, ο οποίος υπέβαλλε παραπομπές δημιουργημένες από το ChatGPT, χωρίς να έχει καταλάβει ότι είναι όλες ψευδείς.

Αυτή η κατάσταση των πραγμάτων εξηγεί την θέση αρκετών, οι οποίοι υποστηρίζουν πως τα chatbots δεν είναι ωφέλιμοι βοηθοί. Τα chatbots απαντάνε σε οτιδήποτε τους ζητηθεί, συνήθως σε δευτερόλεπτα, αλλά τις περισσότερες φορές οι παραπομπές τους είναι λάθος. Ως αποτέλεσμα, οι χρήστες σπαταλούν αρκετό χρόνο ερευνώντας αν οι απαντήσεις τους είναι αληθείς, κάτι που αναιρεί τον σκοπό της χρήσης τους.

Όταν κυκλοφόρησε φέτος, το Bard της Goolgle εμφανίστηκε μαζί με ένα κουμπί “Google it” , το οποίο υπέβαλλε ταυτόχρονα το ερώτημα και στη μηχανή αναζήτησης. Αυτό βοήθησε στο να παρέχεται γρηγορότερα μια δεύτερη γνώμη για το αποτέλεσμα του chatbot, αλλά εξακολουθούσε να θέτει την ευθύνη στον χρήστη για τον προσδιορισμό των ψευδών και αληθών πληροφοριών. Ξεκινώντας από αυτή την εβδομάδα, το Bard θα κάνει λίγη περισσότερη δουλειά εκ μέρους των χρηστών. Αφού το chatbot απαντά σε μια ερώτηση, πατώντας το κουμπί του Google θα ελέγξει ξανά το ίδιο την απάντηση. Παρακάτω δίνεται η εξήγηση της εταιρείας σε μια ανάρτηση της:

“Όταν πατήσετε πάνω στο εικονίδιο G, το Bard θα διαβάσει την απάντηση και θα αξιολογήσει αν υπάρχουν πηγές στο διαδίκτυο που να την τεκμηριώνουν. Όταν η απάντηση μπορεί να τεκμηριωθεί, πατώντας πάνω στις επισημασμένες φράσεις θα μάθετε περισσότερα σχετικά με τις πληροφορίες που υποστηρίζουν ή αντικρούουν όσα βρέθηκαν από την αναζήτηση”.

Ο διπλός έλεγχος μιας ερώτησης θα μετατρέψει τις παραπομπές εντός της απάντησης σε πράσινες ή καφέ. Οι επισημασμένες με πράσινο χρώμα απαντήσεις είναι συνδεδεμένες με τις ιστοσελίδες-πηγές από τις οποίες αντλήθηκαν οι πληροφορίες. Οι επισημασμένες με καφέ χρώμα απαντήσεις υποδεικνύουν ότι το Bard δεν γνωρίζει από που πήρε την πληροφορία και έτσι θα επισημαίνει ένα πιθανό λάθος.

Αν αναρωτιέται κανείς γιατί η Google δεν ελέγχει ξανά απαντήσεις πριν εμφανιστούν στους χρήστες θεωρείται πως – δεδομένης της μεγάλης ποικιλίας τρόπων με τους οποίους οι άνθρωποι χρησιμοποιούν το Bard – ο διπλός έλεγχος είναι συνήθως περιττός. Και ενώ ο διπλός έλεγχος αποτελεί ξεκάθαρα ένα βήμα προς τα εμπρός, εξακολουθεί να απαιτεί από τους χρήστες να ανασύρουν όλες αυτές τις παραπομπές και να βεβαιωθούν ότι το Bard ερμηνεύει σωστά τα αποτελέσματα της αναζήτησης. Τουλάχιστον, όσον αφορά την έρευνα, οι άνθρωποι συνεχίζουν να συμπορεύονται με τα εργαλεία της τεχνητής νοημοσύνης.

Όπως και να έχει, αυτό δεν παύει να είναι μια ευχάριστη εξέλιξη. “Μπορεί να έχουμε δημιουργήσει το πρώτο γλωσσικό μοντέλο που παραδέχεται ότι έχει κάνει λάθος”, αναφέρει ο Jack Krawczyk. Καθώς τα μοντέλα τεχνητής νοημοσύνης βελτιώνονται, η διασφάλιση ότι αναγνωρίζουν με ακρίβεια τα λάθη τους θα έπρεπε να αποτελεί υψηλή προτεραιότητα για τον κλάδο.

Το Bard έκανε, επίσης, μια άλλη μεγάλη ενημέρωση: μπορεί πλέον να συνδεθεί με το Gmail, τα Έγγραφα, το Drive και αρκετά άλλα προϊόντα Google, συμπεριλαμβανομένου του YouTube και των Χαρτών. Οι επεκτάσεις, όπως ονομάζονται, επιτρέπουν στους χρήστες να αναζητούν, να συνοψίζουν και να θέτουν ερωτήσεις σχετικά με τα έγγραφα, που έχουν αποθηκεύσει στο λογαριασμό τους στο Google σε πραγματικό χρόνο.

Προς το παρόν λειτουργεί, μόνο, σε προσωπικούς λογαριασμούς, γεγονός που περιορίζει δραματικά τη χρησιμότητα του. Μερικές φορές είναι ενδιαφέρον ως εναλλακτικός τρόπος περιήγησης στο διαδίκτυο. Ωστόσο, οι επεκτάσεις κάνουν πολλά πράγματα λάθος και δεν υπάρχει κανένα κουμπί, που να μπορούν να πατάνε οι χρήστες, ώστε να βελτιωθούν τα αποτελέσματα.

Το Bard αποδίδει καλά σε σενάρια, στα οποία η Google μπορεί να βγάλει χρήματα. Αν για παράδειγμα ζητηθεί από το Bard  να σχεδιάσει ένα δρομολόγιο για ένα ταξίδι στην Ιαπωνία, συμπεριλαμβανομένων πληροφοριών πτήσεων και ξενοδοχείων, θα εμφανίσει μια καλή επιλογή επιλογών από τις οποίες η Google μπορεί να πάρει μερίδιο από την αγορά.

Το μακροπρόθεσμο ερώτημα είναι πόσο η τεχνητή νοημοσύνη θα είναι τελικά σε θέση να ελέγχει τη δουλειά της. Σήμερα, το έργο της καθοδήγησης των chatbots προς τη σωστή απάντηση εξακολουθεί να βαραίνει σε μεγάλο βαθμό το άτομο που πληκτρολογεί την ερώτηση. Αυτή τη στιγμή, χρειάζονται εργαλεία που θα ωθούν την τεχνητή νοημοσύνη να ολοκληρώνει το έργο της με επάρκεια.

Πηγή:

https://www.theverge.com/23881954/google-bard-ai-fact-checking