Μέλλον, Τεχνητή Νοημοσύνη, Τεχνολογία

Η τεχνητή νοημοσύνη έχει ήδη ανακαλύψει τον τρόπο να μας “ξεγελάει”

Η τεχνητή νοημοσύνη μπορεί να αυξήσει την παραγωγικότητα βοηθώντας μας να κωδικοποιήσουμε, να γράψουμε και να συνθέσουμε τεράστιες ποσότητες δεδομένων. Τώρα μπορεί, επίσης, να μας εξαπατήσει. Σύμφωνα με μια νέα έρευνα, μια σειρά από συστήματα τεχνητής νοημοσύνης έχουν μάθει τεχνικές για να προκαλούν συστηματικά «ψευδείς πεποιθήσεις σε άλλους για να επιτύχουν κάποιο αποτέλεσμα διαφορετικό από την αλήθεια» . 
H έρευνα επικεντρώθηκε σε δύο τύπους συστημάτων τεχνητής νοημοσύνης: συστήματα ειδικής χρήσης, όπως το CICERO της Meta, τα οποία έχουν σχεδιαστεί για την εκτέλεση μιας συγκεκριμένης εργασίας, και συστήματα γενικής χρήσης, όπως το GPT-4 της OpenAI, τα οποία εκπαιδεύονται για να εκτελούν ένα ευρύ φάσμα εργασιών. Ενώ αυτά τα συστήματα εκπαιδεύονται να είναι ειλικρινή, συχνά μαθαίνουν παραπλανητικά τεχνάσματα μέσω της εκπαίδευσής τους, επειδή αυτά μπορεί να είναι πιο αποτελεσματικά από το να παίρνουν τον “καλό δρόμο”. Βάσει της έρευνας πιστεύεται ότι η εξαπάτηση της τεχνητής νοημοσύνης προκύπτει επειδή μια στρατηγική βασισμένη στην εξαπάτηση αποδείχτηκε ο καλύτερος τρόπος για να αποδώσει καλά η συγκεκριμένη τεχνητή νοημοσύνη. 
Τα συστήματα τεχνητής νοημοσύνης που εκπαιδεύονται να «κερδίζουν παιχνίδια που έχουν κοινωνικό στοιχείο» είναι ιδιαίτερα πιθανό να εξαπατήσουν. Για παράδειγμα, το CICERO της Meta, αναπτύχθηκε για να παίζει το παιχνίδι Diplomacy – ένα κλασικό παιχνίδι στρατηγικής που απαιτεί από τους παίκτες να δημιουργούν και να “σπάνε” συμμαχίες. Το CICERO έχει εκπαιδευτεί να είναι σε ένα μεγάλο βαθμό ειλικρινές και χρήσιμο. Ωστόσο, η έρευνα αποκάλυψε ότι το CICERO έκανε δεσμεύσεις που δεν σκόπευε να τηρήσει, πρόδιδε συμμάχους, και έλεγε ψέματα.
Η έρευνα καλεί τους υπεύθυνους χάραξης πολιτικής να συνηγορήσουν υπέρ μιας αυστηρότερης ρύθμισης της τεχνητής νοημοσύνης, δεδομένου ότι τα παραπλανητικά συστήματα της μπορούν να θέσουν σημαντικούς κινδύνους για τη κοινωνία.
Η τεχνητή νοημοσύνη μπορεί εύκολα να χειραγωγηθεί για να διαδώσει ψευδείς ειδήσεις, να δημιουργήσει διχαστικές αναρτήσεις στα μέσα κοινωνικής δικτύωσης και να υποδυθεί κάποιον μέσω ρομποτικών κλήσεων και deepfake βίντεο, σημειώνεται στο έγγραφο. Επίσης, διευκολύνει τις τρομοκρατικές ομάδες να διαδίδουν προπαγάνδα και να στρατολογούν νέα μέλη. Οι πιθανές λύσεις της έρευνας περιλαμβάνουν την υπαγωγή των παραπλανητικών μοντέλων σε πιο «ισχυρές απαιτήσεις αξιολόγησης κινδύνου», την εφαρμογή νόμων που απαιτούν τα συστήματα τεχνητής νοημοσύνης και τα αποτελέσματά τους να διακρίνονται σαφώς από τους ανθρώπους και τα αποτελέσματά τους και την επένδυση σε εργαλεία για τον μετριασμό της παραπλάνησης. 
Ωστόσο, θα πρέπει να έχουμε κατά νου ότι η τεχνητή νοημοσύνη είναι κάτι πολύτιμο για την επιστήμη και την ανθρωπότητα, καθώς μπορεί να βοηθήσει σε πάρα πολλούς τομείς της καθημερινότητάς μας, και της ζωής μας. Αυτό που θα πρέπει να κάνουμε, είναι να εκπαιδευτούμε πάνω σε αυτό, για να μπορέσουμε να χρησιμοποιήσουμε τα οφέλη της τεχνητής νοημοσύνης.