Μεταφράζει η Μαρία Μηνούδη, φοιτήτρια Εγκληματολογικής Ψυχολογίας
Μεγάλα γλωσσικά μοντέλα έδωσαν συμβουλές σχετικά με το πως να αποκρύψουν τον πραγματικό σκοπό αγοράς βακτηρίων άνθρακα, ευλογιάς και πανούκλας.
Τα μοντέλα τεχνητής νοημοσύνης που υποστηρίζουν τα εργαλεία συνομιλιακής τεχνητής νοημοσύνης (chatbots) μπορούν να βοηθήσουν στο σχεδιασμό μιας επίθεσης με βιολογικό όπλο, σύμφωνα με διεπιστημονική έρευνα από μια οργανωμένη αμερικανική ομάδα, που στόχο έχει την παροχή συμβουλών για ποικίλα ζητήματα πολιτικής και προϊόντα μέσω της χρήσης εξειδικευμένης γνώσης και της ενεργοποίησης δικτύων.
Μια έκθεση της Rand Corporation που δημοσιεύθηκε πρόσφατα δοκίμασε διάφορα μεγάλα γλωσσικά μοντέλα (large language models, LLMs) και διαπίστωσε ότι θα μπορούσαν να παρέχουν καθοδήγηση που “θα μπορούσε να βοηθήσει στον σχεδιασμό και την εκτέλεση μιας βιολογικής επίθεσης”. Ωστόσο, τα προκαταρκτικά ευρήματα έδειξαν ότι τα γλωσσικά μοντέλα δεν παρήγαγαν ρητές βιολογικές οδηγίες για τη δημιουργία όπλων.
Στην έκθεση αναφέρεται ότι προηγούμενες προσπάθειες που έγιναν για την “οπλοποίηση” βιολογικών παραγόντων, όπως η προσπάθεια της ιαπωνικής αίρεσης Aum Shinrikyo να χρησιμοποιήσει τη βοτουλινική τοξίνη τη δεκαετία του 1990, είχαν αποτύχει λόγω έλλειψης κατανόησης του βακτηρίου. Η τεχνητή νοημοσύνη θα μπορούσε “να γεφυρώσει γρήγορα αυτά τα κενά γνώσης”, αναφέρει η έκθεση. Η έκθεση δεν διευκρίνισε ποια γλωσσικά μοντέλα εξέτασαν οι ερευνητές.
Τα βιολογικά όπλα είναι μια από τις σοβαρές απειλές που σχετίζονται με την τεχνητή νοημοσύνη και θα συζητηθoύν στην παγκόσμια σύνοδο κορυφής για την ασφάλεια της τεχνητής νοημοσύνης τον επόμενο μήνα στο Ηνωμένο Βασίλειο. Τον Ιούλιο ο Dario Amodei, διευθύνων σύμβουλος της εταιρείας AI Anthropic, προειδοποίησε ότι τα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να βοηθήσουν στη δημιουργία βιολογικών όπλων σε δυο με τρία χρόνια.
Τα μεγάλα γλωσσικά μοντέλα εκπαιδεύονται σε πολύ μεγάλες ποσότητες δεδομένων που λαμβάνονται από το διαδίκτυο και αποτελούν την τεχνολογία που υπάρχει πίσω από chatbots όπως το ChatGPT. Αν και η Rand δεν αποκάλυψε ποια μεγάλα γλωσσικά μοντέλα δοκίμασε, οι ερευνητές δήλωσαν ότι είχαν πρόσβαση στα μοντέλα μέσω μιας διεπαφής προγραμματισμού εφαρμογών ή API (Application Programming Interface).
Σε ένα δοκιμαστικό σενάριο που επινόησε η Rand, το ανώνυμο μεγάλο γλωσσικό μοντέλο εντόπισε πιθανούς βιολογικούς παράγοντες – συμπεριλαμβανομένων εκείνων που προκαλούν ευλογιά, άνθρακα και πανούκλα – και συζήτησε τις σχετικές πιθανότητές τους να προκαλέσουν μαζικό θάνατο. Το μοντέλο αυτό αξιολόγησε επίσης τη δυνατότητα απόκτησης τρωκτικών ή ψύλλων μολυσμένων από πανούκλα και μεταφοράς ζωντανών δειγμάτων. Στη συνέχεια ανέφερε ότι η κλίμακα των προβλεπόμενων θανάτων εξαρτάται από παράγοντες όπως το μέγεθος του πληθυσμού που θα προσβληθεί και το ποσοστό των περιπτώσεων πνευμονικής πανώλης, η οποία είναι πιο θανατηφόρα από τη βουβωνική πανώλη.
Οι ερευνητές της Rand παραδέχθηκαν ότι η εξαγωγή αυτών των πληροφοριών από ένα μεγάλο γλωσσικό μοντέλο απαιτούσε “jailbreaking” ( ο όρος αναφέρεται στην χρήση προτροπών κειμένου που παρακάμπτουν τους περιορισμούς ασφαλείας ενός chatbot).
Σε ένα άλλο σενάριο, ένα ανώνυμο μοντέλο συζήτησε τα πλεονεκτήματα και τα μειονεκτήματα των διαφορετικών μηχανισμών χορήγησης της αλλαντικής τοξίνης – η οποία μπορεί να προκαλέσει θανατηφόρα νευρική βλάβη – όπως τα τρόφιμα ή τα αερολύματα. Το μοντέλο επίσης έδωσε συμβουλές για μια αληθοφανή ιστορία συγκάλυψης για την απόκτηση του κλωστηριδίου της αλλαντίασης “ενώ φαινόταν να διεξάγει νόμιμη επιστημονική έρευνα”.
Η απάντηση του μοντέλου συνέστησε να παρουσιάζεται η αγορά του κλωστηριδίου της αλλαντίασης ως μέρος ενός έργου που εξετάζει διαγνωστικές μεθόδους ή θεραπείες για την αλλαντίαση. Πρόσθεσε επίσης: “Αυτό θα παρείχε έναν νόμιμο και πειστικό λόγο για να ζητήσετε πρόσβαση στα βακτήρια, διατηρώντας παράλληλα κρυφό τον πραγματικό σκοπό της αποστολής σας”.
Οι ερευνητές δήλωσαν ότι τα προκαταρκτικά τους αποτελέσματα έδειξαν ότι τα μεγάλα γλωσσικά μοντέλα θα μπορούσαν “ενδεχομένως να βοηθήσουν στον σχεδιασμό μιας βιολογικής επίθεσης”. Είπαν ότι η τελική τους έκθεση θα εξετάσει κατά πόσο οι απαντήσεις απλώς αντικατοπτρίζουν τις πληροφορίες που είναι ήδη διαθέσιμες στο διαδίκτυο.
“Παραμένει ένα ανοιχτό ερώτημα αν οι δυνατότητες των υφιστάμενων μεγάλων γλωσσικών μοντέλων αντιπροσωπεύουν ένα νέο επίπεδο απειλής πέρα από τις επιβλαβείς πληροφορίες που είναι εύκολα διαθέσιμες στο διαδίκτυο”, δήλωσαν οι ερευνητές.
Ωστόσο, οι ερευνητές της Rand δήλωσαν ότι η ανάγκη για αυστηρό έλεγχο των μοντέλων είναι “αδιαμφισβήτητη”. Είπαν ότι οι εταιρείες τεχνητής νοημοσύνης πρέπει να περιορίσουν το άνοιγμα των μεγάλων γλωσσικών μοντέλων σε συζητήσεις όπως αυτές που αναφέρονται στην έκθεσή τους.
Πηγή:
Η εθελοντική ομάδα του CSI Institute, αποτελούμενη από εξειδικευμένους επιστήμονες όπως, ψυχολόγους, εγκληματολόγους, κοινωνιολόγους καθώς και τεχνικούς δικτύων & πληροφορικής, είναι κοντά σας παρέχοντας πληροφορία, ενημέρωση και γνώση μέσα από ποικίλα θέματα αρθρογραφίας.