Chatbots, Διαδικτυακές απειλές, Τεχνητή Νοημοσύνη

Τέσσερις κίνδυνοι που πρέπει να αντιμετωπίσουν οι επιχειρήσεις που χρησιμοποιούν το ChatGPT

Γράφει η Μαρία Μηνούδη

Τον τελευταίο καιρό όλο και περισσότερος κόσμος αρχίζει να χρησιμοποιεί μεγάλα γλωσσικά μοντέλα, όπως το ChatGPT, ιδιαίτερα στον εργασιακό χώρο. Αυτό είναι εμφανές και από την άνοδο της αναζήτησης του όρου ChatGPT στο Google Trends. Ωστόσο, έχει δημιουργηθεί ένα μεγάλο ερώτημα σχετικά με το πόσο ασφαλή είναι τα ευαίσθητα δεδομένα των επιχειρήσεων όταν αυτά μοιράζονται στο ChatGPT.

Μια νέα έρευνα της Kaspersky, στη Ρωσία έδειξε ότι το 11% των ερωτηθέντων έχουν χρησιμοποιήσει έστω μια φορά το ChatGPT ενώ το 30% (σχεδόν) πιστεύει ότι διάφορες δουλειές στο μέλλον θα αντικατασταθούν από αυτό. Άλλες έρευνες, έδειξαν ότι το 50% των Βέλγων και το 65% των κατοίκων του Ηνωμένου Βασιλείου, που κάνουν κάποια δουλειά γραφείου, χρησιμοποιούν καθημερινά το ChatGPT.

Οι ειδικοί της Kaspersky εντόπισαν τέσσερις βασικές απειλές για τους χρήστες του ChatGPT στο εργασιακό περιβάλλον:

  1. Υποκλοπή δεδομένων 

Μπορεί αυτά τα γλωσσικά μοντέλα να ανήκουν σε εταιρείες με μεγάλη εξειδίκευση στον τομέα, αλλά αυτό δεν σημαίνει ότι οι χρήστες προστατεύονται από βασικούς κινδύνους, όπως η παραβίαση των συσκευών τους και η υποκλοπή δεδομένων από κυβερνοεγκληματίες. Επίσης, σφάλματα αυτών των μοντέλων είχαν επιτρέψει παλαιότερα σε χρήστες να μπορούν να δουν τις συνομιλίες άλλων χρηστών.

  1. Διαρροή δεδομένων 

Συνήθως, η εκπαίδευση άλλων μοντέλων γίνεται σύμφωνα με τις ήδη υπάρχουσες συνομιλίες των chatbots. Τα μεγάλα γλωσσικά μοντέλα μπορούν να αποθηκεύουν αυτόματα αριθμητικές ακολουθίες συμπεριλαμβανόμενων και αριθμών τηλεφώνων – μία μη χρήσιμη παράμετρος στην βελτίωση των μοντέλων – γεγονός που μπορεί να θέσει σε κίνδυνο την ιδιωτικότητα των χρηστών. Με απλά λόγια, είναι πιθανόν να διαρρεύσουν αυτοί οι αριθμοί στην εκπαίδευση οποιωνδήποτε άλλων γλωσσικών μοντέλων, χωρίς την θέληση των χρηστών.

  1. Κακόβουλο λογισμικό

Σε ορισμένες χώρες/περιοχές η χρήση των μεγάλων γλωσσικών μοντέλων όπως το ChatGPT δεν επιτρέπεται. Πολίτες αυτών των περιοχών πολλές φορές καταφεύγουν σε ανεπίσημες ιστοσελίδες, που υποτίθεται πως παρέχουν την χρήση του ChatGPT, ενώ στην πραγματικότητα παρέχουν πρόσβαση σε κακόβουλα λογισμικά.

  1. Παραβίαση λογαριασμών

Οι κυβερνοεγκληματίες είναι πιθανόν να αποκτήσουν πρόσβαση στα δεδομένα των χρηστών μέσω phishing (ηλεκτρονικό “ψάρεμα”) ή μέσω credential stuffing (αυτοματοποιημένη εισαγωγή κλεμμένων ζευγών ονόματος χρήστη και κωδικού πρόσβασης – “διαπιστευτήρια” – σε φόρμες σύνδεσης σε ιστότοπους). Σύμφωνα με έρευνες, έχουν εντοπιστεί αρκετές φορές δημοσιεύσεις στο σκοτεινό διαδίκτυο (Dark Web) σχετικά με την αγοροπωλησία διαπιστευτηρίων πρόσβασης σε λογαριασμούς εργαλείων συνομιλιακής τεχνητής νοημοσύνης.

Συμπέρασμα

Βλέποντας τα παραπάνω είναι σημαντικό οι εταιρείες παραγωγής μεγάλων γλωσσικών μοντέλων να ενημερώνουν τους χρήστες για αυτούς τους πιθανούς κινδύνους και να τους παρέχουν οδηγίες για την ασφαλή χρήση τους. Εξίσου σημαντικό είναι να ενημερώνουν, τακτικά, τα πρωτόκολλα ασφαλείας τους, ώστε να  παρέχουν μεγαλύτερη προστασία των προσωπικών δεδομένων των χρηστών.

Πηγή:

https://www.inewsgr.com/107/tesseris-apeiles-aporritou-pou-antimetopizoun-oi-epicheiriseis-kata-ti-chrisi-tou-ChatGPT.html