Μετάφραση
Η Google ανακοίνωσε ότι επεκτείνει το πρόγραμμα ανταμοιβής για ευπάθειες (Vulnerability Rewards Program – VRP), ώστε να αποζημιώνει τους ερευνητές για την εύρεση σεναρίων επίθεσης προσαρμοσμένων στα συστήματα δημιουργικής τεχνητής νοημοσύνης (generative artificial intelligence – AI), σε μια προσπάθεια να ενισχύσει την ασφάλεια και την προστασία της τεχνητής νοημοσύνης.
“Η δημιουργική τεχνητή νοημοσύνη εγείρει νέες και διαφορετικές ανησυχίες από την παραδοσιακή ψηφιακή ασφάλεια, όπως το ενδεχόμενο αθέμιτης μεροληψίας, χειραγώγησης του μοντέλου ή παρερμηνείας των δεδομένων”, δήλωσαν οι Laurie Richardson και Royal Hansen από την Google.
Ορισμένες από τις κατηγορίες που εμπίπτουν στο πεδίο εφαρμογής περιλαμβάνουν τις επιθέσεις προτροπής (prompt injections), τη διαρροή ευαίσθητων δεδομένων από σύνολα δεδομένων εκπαίδευσης, τη χειραγώγηση μοντέλων, τις επιθέσεις που προκαλούν εσφαλμένη ταξινόμηση και την κλοπή μοντέλων.
Αξίζει να σημειωθεί ότι η Google νωρίτερα φέτος τον Ιούλιο θέσπισε μια ειδική ομάδα τεχνητής νοημοσύνης (AI Red Team) για να βοηθήσει στην αντιμετώπιση των απειλών για τα συστήματα τεχνητής νοημοσύνης ως μέρος του πλαισίου ασφαλούς τεχνητής νοημοσύνης ( Secure AI Framework – SAIF).
Επίσης, στο πλαίσιο της δέσμευσής της για την ασφάλεια της τεχνητής νοημοσύνης, ανακοινώθηκαν προσπάθειες για την ενίσχυση της αλυσίδας εφοδιασμού της τεχνητής νοημοσύνης μέσω υφιστάμενων πρωτοβουλιών ασφαλείας ανοικτού κώδικα, όπως το Supply Chain Levels for Software Artifacts (SLSA) και το Sigstore.
“Ψηφιακές υπογραφές, όπως αυτές του Sigstore, επιτρέπουν στους χρήστες να επαληθεύουν ότι το λογισμικό δεν έχει αλλοιωθεί ή αντικατασταθεί”, δήλωσε η Google.
“Μεταδεδομένα, όπως η προέλευση του λογισμικού ασφάλειας SLSA, που μας λένε τι περιέχει το λογισμικό και πώς κατασκευάστηκε, επιτρέπουν στους καταναλωτές να διασφαλίζουν τη συμβατότητα των αδειών χρήσης, να εντοπίζουν γνωστά τρωτά σημεία και να εντοπίζουν πιο προηγμένες απειλές.”
Η εξέλιξη αυτή έρχεται καθώς η OpenAI παρουσίασε μια νέα εσωτερική ομάδα ετοιμότητας για την “παρακολούθηση, αξιολόγηση, πρόβλεψη και προστασία” από καταστροφικούς κινδύνους για τη δημιουργική τεχνητή νοημοσύνη που καλύπτουν την κυβερνοασφάλεια, τις χημικές, βιολογικές, ραδιολογικές και πυρηνικές απειλές.
Οι δύο εταιρείες, μαζί με την Anthropic και τη Microsoft, ανακοίνωσαν επίσης τη δημιουργία ενός Ταμείου Ασφάλειας Τεχνητής Νοημοσύνης ύψους 10 εκατομμυρίων δολαρίων, το οποίο επικεντρώνεται στην προώθηση της έρευνας στον τομέα της ασφάλειας της τεχνητής νοημοσύνης.
Πηγή:
https://thehackernews.com/2023/10/google-expands-its-bug-bounty-program.html
Η εθελοντική ομάδα του CSI Institute, αποτελούμενη από εξειδικευμένους επιστήμονες όπως, ψυχολόγους, εγκληματολόγους, κοινωνιολόγους καθώς και τεχνικούς δικτύων & πληροφορικής, είναι κοντά σας παρέχοντας πληροφορία, ενημέρωση και γνώση μέσα από ποικίλα θέματα αρθρογραφίας.