Chatbots, Απάτες, Τεχνητή Νοημοσύνη

Chatbots, spam και απάτες: Πόσο ασφαλής είναι η χρήση τους;

Γράφει η Βασιλική Κατσούλη

Οι περισσότεροι άνθρωποι στις σημερινές κοινωνίες τείνουν να δείχνουν μια σαφή συμπάθεια προς τα chatbots, καθώς τους παρέχουν κάτι μοναδικό, την δυνατότητα εύκολης πρόσβασης και αποτελεσματικότητας και ταυτόχρονα μία διαθεσιμότητα που δεν σταματάει ποτέ. Τα chatbots λειτουργούν ανελλιπώς, 24 ώρες το 24ωρο και 7 ημέρες την εβδομάδα και χάρη στο προηγμένο λογισμικό τους, ανταποκρίνονται στις απαιτήσεις σχεδόν όπως θα έκανε ένας άνθρωπος, που θα ερχόταν αντιμέτωπος με έναν άλλον προβληματισμένο, χαρούμενο ή λυπημένο άνθρωπο.

Βέβαια, τα chabots δεν προσφέρουν μόνο απαντήσεις σε ερωτήσεις που μπορεί κάποιος να διστάζει να ρωτήσει κάποιο άλλο άτομο, αλλά πλέον τα συναντάμε σε καθημερινή βάση, μέσω των διαφορετικών  χρήσεων τους. Από την παραγγελία μίας πίτσας και τον έλεγχο του τραπεζικού μας υπολοίπου έως και σε εφαρμογές που σχετίζονται με την ψυχική υγεία.

Στο κατάστημα της Open Ai μάλιστα, θα βρούμε μια πληθώρα από εφαρμογές αλλά και διαφορετικές εκδόσεις τρίτων του ChatGPT. Το Open Ai, αναφέρει πως εξετάζει όλες τις εφαρμογές αλλά πολλές από αυτές παρατηρούνται να παραβιάζουν τους κανόνες της, με αποτέλεσμα το κατάστημα της Open Ai να γεμίζει συνεχώς με ανεπιθύμητο περιεχόμενο που μπορεί να αποβεί μοιραίο για πολλούς χρήστες.

Όπως είναι λογικό, σε αυτό το σημείο, τίθεται ένα σημαντικό ερώτημα. Πόση ασφάλεια διαθέτουμε χρησιμοποιώντας και εκθέτοντας τόσο προσωπικά δεδομένα στα chatbots ενώ υπάρχει τέτοιος υπερπληθυσμός και ο διαχωρισμός ενός ασφαλούς μέσου και ενός που δεν είναι μοιάζει τόσο δύσκολος;

Θα πρέπει να γίνει κατανοητό πως, όπως ασφαλίζουμε τα προσωπικά μας δεδομένα στην πραγματική ζωή, ένα είδος ασφάλειας θα πρέπει να λαμβάνετε και στην χρήση των τεχνολογικών καινοτομιών που κάνουν πιο εύκολη την ζωή μας. Αυτό περιλαμβάνει την χρήση των chatbots για ερωτήσεις και απαντήσεις όπως π.χ. η Siri, μέχρι και εφαρμογές που μοιραζόμαστε πολύ προσωπικά δεδομένα, όπως π.χ. τα τραπεζικά μας στοιχεία.

Ποιοι όμως είναι οι κίνδυνοι που καραδοκούν πίσω από κάτι φαινομενικά τόσο αθώο;

Η απάντηση είναι απλή, όχι τόσο αθώοι άνθρωποι. Το γεγονός πως θα δημιουργηθεί μία εφαρμογή με βάση την τεχνητή νοημοσύνη ή ένα πρόγραμμα αυτής με σκοπό την ευκολία και την γρήγορη εξυπηρέτηση, σημαίνει πως υπάρχει δυνατότητα, να χρησιμοποιηθεί από διάφορους επιτήδειους με κύριο σκοπό την εκμετάλλευση.

Πως όμως μπορεί να επιτευχθεί αυτό;

Τρωτά σημεία διαδικτυακής εκμετάλλευσης: Αν και οι ίδιες οι εταιρίες που βασίζουν τις υπηρεσίες τους στα chatbots, θα έπρεπε να παρέχουν επαρκή ασφάλεια στις συναλλαγές των πελατών τους, το μεγαλύτερο ποσοστό των χρηστών δεν νιώθουν πως οι διαδικτυακές τους συνομιλίες ή συναλλαγές είναι απόλυτα ασφαλής. Το γεγονός αυτό παρουσιάζεται εντονότερα με την κοινοποίηση πολύ προσωπικών πληροφοριών, όπως τα τραπεζικά στοιχεία, καθώς πλέον οι επιτήδειοι έχουν βρει τρόπους με τους οποίους μπορούν να παρακάμπτουν την ασφάλεια, βασισμένοι σε κάποια κενά που μπορεί να παρουσιάζει.

Απάτες υψηλού προφίλ: Επιτήδειοι χρησιμοποιούν την αξιοπιστία μεγάλων εταιρειών προκειμένου να πετύχουν τους στόχους τους. Προσποιούμενοι με την βοήθεια των chatbots πως εκπροσωπούν εταιρίες όπως την Amazon και την Apple, εκμαιεύουν από ανυποψίαστα θύματα προσωπικές πληροφορίες.

Παρόμοιες απάτες παρουσιάζονται και σε μέσα κοινωνικής δικτύωσης όπως το Facebook ή ακόμη και σε υπηρεσίες μεταφορών όπως η DHL. Με αφορμή την υποτιθέμενη απενεργοποίηση ενός λογαριασμού ή της μη λήψης ενός πακέτου εάν δεν προέβαινε ο παραλήπτης σε κάποιες ενέργειες, παρέσερναν ανυποψίαστα άτομα σε chatbots με σκοπό να κερδίσουν μέσω των συνομιλιών τα προσωπικά τους δεδομένα.

Οικιακοί βοηθοί: Σε αυτή την κατηγορία περιλαμβάνονται chatbots όπως η Alexa της Amazon καθώς και η Siri της Apple, που έχουν αντιμετωπίσει αρκετές διώξεις έπειτα από την παραδοχή πως ακούνε τις προσωπικές συνομιλίες μας. Βέβαια δεν είναι μόνο αυτό που μας τρομάζει. Υπάρχουν διάφορα κενά ασφαλείας, όπως το γεγονός πως οι βοηθοί δέχονται εντολές από τον οποιονδήποτε δίχως οπτική επαφή, έχοντας πρόσβαση σε οικιακές συσκευές ή προσωπικούς λογαριασμούς, γεγονός που καθιστά την εισβολή ενός τρίτου προσώπου σε έναν οικιακό βοηθό τρομακτική.

Phishing: Όπως αναφέρθηκε και παραπάνω, τα chatbots έχουν αφήσει αρκετό χώρο στην πραγματοποίηση απατών με έναν από αυτούς να αφαιρεί μία βασική γραμμή άμυνας ενάντια των δόλιων μηνυμάτων ηλεκτρονικού ψαρέματος (phishing), αφαιρώντας τα κραυγαλέα ορθογραφικά λάθη. Κατά αυτό τον τρόπο πολλά ανεπιθύμητα μηνύματα (spam) “περνάνε” απαρατήρητα από τα φίλτρα των εφαρμογών καθώς και να καταφέρνουν να ξεγελάνε ολοένα και περισσοτέρους ανθρώπους.

Πως μπορούμε να νιώσουμε όμως ασφαλείς χρησιμοποιώντας chatbot και γνωρίζοντας τα παραπάνω;  

Η χρήση των chatbots μπορεί να πραγματοποιηθεί χωρίς να επηρεάζει την αξιοπιστία τους ως εργαλεία είτε της καθημερινότητάς μας, είτε ως εργαλεία επικοινωνίας, εφόσον χρησιμοποιούνται κάποιες επιπλέον δικλείδες ασφαλείας, διασφαλίζοντας κατά αυτό τον τρόπο τα προσωπικά μας δεδομένα.

Δεν μοιραζόμαστε ποτέ πολύ προσωπικές πληροφορίες με τα chatbots: Ο αριθμός κοινωνικής μας ασφάλισης, οι αριθμοί των πιστωτικών μας καρτών, τραπεζικά στοιχεία και αριθμοί λογαριασμών, κωδικοί πρόσβασης και ιατρικές πληροφορίες πρέπει να παραμένουν αυστηρώς προσωπικά. Αποφεύγουμε την εθελοντική αποστολή επιπλέον πληροφοριών πέραν των πολύ απαιτούμενων.

Χρησιμοποιούμε chatbots μόνο σε έμπιστους ιστότοπους: Δεν χρησιμοποιούμε chatbots σε ιστότοπους ή εφαρμογές που φαίνονται ύποπτες.

Δεν ακολουθούμε ποτέ συνδέσμους: Για να ακολουθήσουμε οποιονδήποτε σύνδεσμο, χρειάζεται να επαληθεύσουμε την διεύθυνση αποστολής. Για παράδειγμα, ένας  αποστολέας ισχυρίζεται πως είναι μία γνωστή εταιρεία κινητής, επαληθεύουμε το μήνυμα που λάβαμε είτε στο κινητό, είτε στο ηλεκτρονικό ταχυδρομείο, με βάση την επίσημη ιστοσελίδα της εταιρείας.

Συνοπτικά, αν και τα chatbots είναι ένα πραγματικά χρήσιμο εργαλείο στα χέρια μας, στα χέρια επιτηδείων μπορεί να μεταμορφωθούν σε ένα πραγματικό εργαλείο εξαπάτησης, γεγονός που θα πρέπει να μας κάνει περισσότερο “καχύποπτους” με πληροφορίες και δεδομένα που κοινοποιούμε σε εφαρμογές και στο διαδίκτυο.

Πηγές:

https://techcrunch.com/2024/03/20/openais-chatbot-store-is-filling-up-with-spam/

https://www.security.org/digital-safety/scams/chatbot/

https://www.theguardian.com/technology/2023/mar/29/ai-chatbots-making-it-harder-to-spot-phishing-emails-say-experts