Μεταφράζει η Σοφία Λύκου
Αυτός που τηλεφωνούσε στη Ruth Card έμοιαζε με τον εγγονό της, τον Brandon. Έτσι, όταν της είπε ότι είναι στη φυλακή, δεν έχει πορτοφόλι ή κινητό τηλέφωνο, και χρειάζεται μετρητά για να αποδεσμευτεί, ήθελε να κάνει ό,τι μπορεί για να τον βοηθήσει. «Είχα σίγουρα… μια αίσθηση τρόμου», είπε. «Πρέπει να τον βοηθήσουμε τώρα», σκέφτηκε. Η Card και ο σύζυγός της, μπήκαν στην τράπεζά τους και απέσπασαν 3.000 δολάρια Καναδά, το ημερήσιο μέγιστο. Πήγαν και σε άλλο υποκατάστημα για περισσότερα χρήματα. Αλλά ένας διευθυντής τράπεζας τους φώναξε στο γραφείο του: Ένας άλλος πελάτης της τράπεζας είχε λάβει παρόμοια κλήση και ανακάλυψε ότι η τρομερά ακριβής φωνή ήταν ψεύτικη, θυμάται η Card ότι της είπε ο τραπεζίτης. Το άτομο στο τηλέφωνο μάλλον δεν ήταν ο εγγονός της. Μόνο τότε συνειδητοποίησαν ότι τους είχαν εξαπατήσει. «Μας εξαπάτησαν», είπε η Κάρντ σε συνέντευξή του στην Washington Post. «Ήμασταν πεπεισμένοι ότι μιλούσαμε με τον Μπράντον».
Καθώς οι απάτες πλαστοπροσωπίας αυξάνονται στις Ηνωμένες Πολιτείες, οι απάτες μέσω καρτών είναι σημάδι μιας ανησυχητικής τάσης. Η τεχνολογία καθιστά ευκολότερο και φθηνότερο για τους επιτήδειους να μιμούνται φωνές, με αποτέλεσμα οι άνθρωποι, συχνά οι ηλικιωμένοι, να πιστεύουν ότι τα αγαπημένα τους πρόσωπα αντιμετωπίζουν προβλήματα. Το 2022, οι απάτες τέτοιου είδους ήταν η δεύτερη πιο δημοφιλής απάτη στις ΗΠΑ, με πάνω από 36.000 αναφερόμενα θύματα. Σύμφωνα με στατιστικά στοιχεία της Ομοσπονδιακής Επιτροπής Εμπορίου (Federal Trade Commission, FTC), οι απάτες γίνονταν από άτομα που προσποιούνταν ότι είναι φίλοι και συγγενείς. Οι αξιωματούχοι της FTC δήλωσαν ότι περισσότερα από 5.100 από αυτά τα περιστατικά συνέβησαν μέσω τηλεφώνου, προκαλώντας ζημίες άνω των 11 εκατομμυρίων δολαρίων.
Η πρόοδος στην τεχνητή νοημοσύνη έχει προσθέσει νέες ευκαιρίες, επιτρέποντας στους δράστες να αναπαράγουν μια φωνή με ηχητικά δείγματα ορισμένων προτάσεων. Με την υποστήριξη της τεχνητής νοημοσύνης, πολλά φθηνά διαδικτυακά εργαλεία μπορούν να μεταφράσουν ένα αρχείο ήχου σε αντίγραφο φωνής, επιτρέποντας σε έναν απατεώνα να «εκφωνήσει» ό,τι ακριβώς πληκτρολογεί. Οι ειδικοί λένε ότι οι ομοσπονδιακές ρυθμιστικές αρχές, οι αρχές επιβολής του νόμου και τα δικαστήρια δεν διαθέτουν τον κατάλληλο εξοπλισμό για να καταπολεμήσουν αυτήν την αυξανόμενη απάτη. Τα περισσότερα θύματα έχουν λίγα στοιχεία για την αναγνώριση του δράστη και είναι δύσκολο για την αστυνομία να εντοπίσει κλήσεις και χρήματα από απατεώνες που δρουν σε όλο τον κόσμο. Αντίστοιχα, υπάρχει ελάχιστο νομικό υπόβαθρο, ώστε τα δικαστήρια να θέσουν τις εταιρείες, που δημιουργούν αυτές τις συσκευές, υπόλογες για τη χρήση τους.
«Είναι τρομακτικό», είπε ο Hani Farid, καθηγητής ψηφιακής εγκληματολογίας στο Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϋ. “Είναι η τέλεια καταιγίδα…με όλα τα συστατικά που χρειάζεσαι για να δημιουργήσεις χάος’’. Αν και οι απάτες μπορούν να έχουν ποικίλες μορφές, ουσιαστικά λειτουργούν με τον ίδιο τρόπο: Ένας δράστης υποδύεται κάποιον αξιόπιστο –ένα παιδί, σύντροφο ή φίλο– και πείθει το θύμα να του στείλει χρήματα επειδή βρίσκεται σε δύσκολη θέση. Αλλά η τεχνολογία παραγωγής φωνής-ομιλίας καθιστά αυτό το επιχείρημα πιο πειστικό. Τα θύματα αναφέρουν ότι αντιδρούν με απόλυτο φόβο όταν ακούνε ότι τα αγαπημένα τους πρόσωπα βρίσκονται σε κίνδυνο.
Αυτό είναι ένα αποτέλεσμα της πρόσφατης ανάπτυξης της γενετικής τεχνητής νοημοσύνης, η οποία υποστηρίζει λογισμικό που δημιουργεί κείμενο, εικόνες ή ήχους με βάση δεδομένα. Οι πρόοδοι στα μαθηματικά και την υπολογιστική ισχύ, έχουν βελτιώσει τους μηχανισμούς εκπαίδευσης για τέτοιο λογισμικό, ωθώντας ένα στόλο εταιρειών να κυκλοφορήσουν chatbot, που δημιουργούν εικόνες και φωνές που μοιάζουν απολύτως ζωντανές. Ο Farid είπε ότι το -βασισμένο στην τεχνητή νοημοσύνη- λογισμικό δημιουργίας φωνής αναλύει ποια είναι αυτά τα στοιχεία που κάνουν τη φωνή ενός ατόμου μοναδική – συμπεριλαμβανομένης της ηλικίας, του φύλου και της προφοράς – και κάνει αναζητήσεις μέσα σε μια τεράστια βάση δεδομένων φωνών για να βρει παρόμοιες και να προβλέψει μοτίβα.
Πρόσθεσε ότι το ύψος, η χροιά και το μοναδικό ηχόχρωμα της φωνής ενός ατόμου μπορούν στη συνέχεια να αναδημιουργηθούν, για να παράξουν ένα ολoκληρωμένο αποτέλεσμα. Ο Farid είπε ότι αυτό απαιτεί ένα μικρό δείγμα ήχου, που λαμβάνεται από μέρη όπως το YouTube, ένα podcast, διαφημίσεις, ένα βίντεο TikTok, το Instagram ή το Facebook. «Πριν από δύο χρόνια, ακόμη και πριν από ένα χρόνο, χρειαζόταν πολλή δουλειά για την κλωνοποίηση της φωνής ενός ατόμου», είπε ο Farid. «Τώρα… εάν έχετε μια σελίδα στο Facebook… ή εάν ηχογραφήσετε ένα TikTok και η φωνή σας ακούγεται για 30 δευτερόλεπτα, οι άνθρωποι μπορούν να κλωνοποιήσουν τη φωνή σας». Εταιρείες όπως η ElevenLabs, μια νεοσύστατη εταιρεία για τη σύνθεσης φωνητικών δειγμάτων μέσω τεχνητής νοημοσύνης, που ιδρύθηκε το 2022, μετατρέπουν ένα σύντομο φωνητικό δείγμα σε μια τεχνητά παραγόμενη ομιλία μέσω του εργαλείου μετατροπής κειμένου σε ομιλία. Σύμφωνα με τον ιστότοπο, το λογισμικό ElevenLabs μπορεί να είναι δωρεάν ή να κοστίζει μεταξύ 5$ και 330$ το μήνα για χρήση, με τις υψηλότερες τιμές να επιτρέπουν στους χρήστες να παράγουν περισσότερο ηχητικό περιεχόμενο.
Το ElevenLabs αντικρούει την είδηση μετά από κριτική για το εργαλείο που χρησιμοποιεί, το οποίο υποστηρίζεται ότι έχει αξιοποιηθεί για να αναπαράγει φωνές διασημοτήτων, κάτι που η εταιρεία αρνείται ότι συνέβη. Ένα παράδειγμα ήθελε την ηθοποιό Emma Watson που φαίνεται να απαγγέλλει ένα απόσπασμα από το «Mein Kampf» του Χίτλερ. Η ElevenLabs δεν απάντησε σε αίτημα για σχολιασμό, αλλά σε μια δημοσίευση στο Twitter, δήλωσε ότι προσθέτει δικλείδες ασφαλείας για να αποτρέψει την κατάχρηση, συμπεριλαμβανομένου του περιορισμού των ελεύθερων χρηστών από τη δημιουργία προσαρμοσμένων φωνών και τη δημιουργία ενός εργαλείου για την ανίχνευση ήχου που έχει δημιουργηθεί από τεχνητή νοημοσύνη.
Tέτοιες δικλείδες καθυστέρησαν να εφαρμοστούν για θύματα όπως ο Benjamin Perkin, του οποίου οι ηλικιωμένοι γονείς έχασαν χιλιάδες δολάρια σε μια απάτη με τηλεφωνητή. Ο εφιάλτης του με την κλωνοποιημένη φωνή του ξεκίνησε όταν οι γονείς του έλαβαν ένα τηλεφώνημα από έναν υποτιθέμενο δικηγόρο, λέγοντας τους ότι ο γιος τους σκότωσε έναν Αμερικανό διπλωμάτη σε αυτοκινητιστικό δυστύχημα. Τους είπαν ότι ο Perkin ήταν στη φυλακή και χρειαζόταν χρήματα για νομικά ζητήματα. Ο υποτιθέμενος δικηγόρος είπε στους γονείς του Perkin στο τηλέφωνο ότι ο ίδιος τους αγαπούσε, τους εκτιμούσε και ότι χρειαζόταν τα χρήματα. Λίγες ώρες αργότερα, ο δικηγόρος τηλεφώνησε ξανά στους γονείς του Perkin, λέγοντας τους ότι ο γιος τους χρειαζόταν 21.000 δολάρια, πριν από ένα δικαστήριο, που θα γινόταν αργότερα εκείνη την ημέρα. Οι γονείς του Perkin είπαν αργότερα ότι η κλήση φαινόταν ασυνήθιστη, αλλά δεν μπορούσαν να διώξουν το συναίσθημα ότι είχαν πράγματι μιλήσει στον γιο τους. Η φωνή ήταν «αρκετά κοντά για να πιστέψουν οι γονείς μου ότι μίλησαν μαζί μου», είπε. Σε κατάσταση πανικού, πήγαν σε πολλές τράπεζες για να πάρουν μετρητά και έστειλαν τα χρήματα στον δικηγόρο μέσω bitcoin.
Όταν ο πραγματικός Perkin τηλεφώνησε στους γονείς του εκείνο το βράδυ για τους ανακοινώσει την αιφνιδιαστική άφιξη του, εκείνοι μπερδεύτηκαν. Δεν είναι σαφές από πού πήραν τη φωνή του οι απατεώνες, αν και ο Perkin έχει δημοσιεύσει βίντεο στο YouTube μιλώντας για το χόμπι του με το snowmobiling. Ο Perkin είπε ότι η οικογένειά του υπέβαλε αναφορά στην αστυνομία και τις καναδικές ομοσπονδιακές αρχές, αλλά αυτό δεν οδήγησε στην επιστροφή των μετρητών. “Τα χρήματα έχουν χαθεί”, δήλωσε. “Καμία ασφάλεια. Δεν θα τα πάρουν πίσω. Έφυγαν”. Ο Will Maxson, βοηθός διευθυντή του τμήματος πρακτικών μάρκετινγκ της FTC, είπε ότι η παρακολούθηση αυτών των δραστών μπορεί να είναι «ιδιαίτερα δύσκολη» επειδή μπορούν να χρησιμοποιήσουν τηλέφωνα οπουδήποτε στον κόσμο, γεγονός που καθιστά επίσης δύσκολο να αναγνωριστεί ποιος το κάνει. Η υπηρεσία έχει δικαιοδοσία για ειδικές περιστάσεις.
Ο Maxson προέτρεψε να συνεχιστεί η επαγρύπνηση. “Εάν ένα αγαπημένο σας πρόσωπο σας πει ότι χρειάζεται χρήματα, βάλτε αυτήν την κλήση σε αναμονή και δοκιμάστε να καλέσετε το μέλος της οικογένειάς σας ξεχωριστά, είπε. Ποτέ μην πληρώνετε άτομα με δωροκάρτες, καθώς είναι δύσκολο να εντοπιστούν, πρόσθεσε, και να είστε προσεκτικοί με τυχόν αιτήματα για μετρητά”. Η Eva Velasquez, διευθύνουσα σύμβουλος του Κέντρου Πληροφοριών για την κλοπή ταυτότητας (Identity Theft Resource Center), είπε ότι είναι δύσκολο για τις αρχές επιβολής του νόμου να εντοπίσουν κλέφτες που κλωνοποιούν τη φωνή. Η Velasquez, η οποία πέρασε 21 χρόνια στο γραφείο του εισαγγελέα του Σαν Ντιέγκο ερευνώντας απάτες καταναλωτών, είπε ότι τα αστυνομικά τμήματα μπορεί να μην έχουν αρκετά χρήματα και προσωπικό για να χρηματοδοτήσουν μια μονάδα αφιερωμένη στην παρακολούθηση της εν λόγω απάτης.
Δήλωσε ότι τα μεγαλύτερα τμήματα πρέπει να αξιοποιήσουν πόρους για υποθέσεις που μπορούν να επιλυθούν. Τα θύματα φωνητικών απατών μπορεί να μην έχουν πολλές πληροφορίες για να δώσουν στην αστυνομία για έρευνα, γεγονός που καθιστά δύσκολο για τις αρχές να αφιερώσουν πολύ χρόνο ή ανθρώπινο δυναμικό για μικρές ζημιές ειδικότερα.
«Αν δεν έχετε καμία πληροφορία, από πού ξεκινάτε;» Ο Farid δήλωσε ότι τα δικαστήρια θα πρέπει να θεωρήσουν υπεύθυνες τις εταιρείες τεχνητής νοημοσύνης εάν τα προϊόντα που δημιουργούν προκαλούν βλάβη. Νομικοί όπως ο δικαστής του Ανώτατου Δικαστηρίου Neil M. Gorsuch δήλωσε τον Φεβρουάριο ότι οι νομικές προστασίες που προστατεύουν τα κοινωνικά δίκτυα από αγωγές ενδέχεται να μην ισχύουν για έργα που δημιουργούνται από τεχνητή νοημοσύνη.
Για την Card, η εμπειρία την έκανε πιο προσεκτική. Πέρυσι, μίλησε στην τοπική εφημερίδα, το Regina Leader-Post, για να προειδοποιήσει το κοινό για αυτές τις απάτες. Δεδομένου ότι δεν έχασε χρήματα, δεν το κατήγγειλε στην αστυνομία. Πάνω απ’ όλα, είπε, ότι ένιωθε ντροπή. «Δεν ήταν μια πολύ πειστική ιστορία», είπε. “Αλλά δεν χρειαζόταν και κάτι παραπάνω από αυτό για να μας πείσει”.
Πηγή:
Η εθελοντική ομάδα του CSI Institute, αποτελούμενη από εξειδικευμένους επιστήμονες όπως, ψυχολόγους, εγκληματολόγους, κοινωνιολόγους καθώς και τεχνικούς δικτύων & πληροφορικής, είναι κοντά σας παρέχοντας πληροφορία, ενημέρωση και γνώση μέσα από ποικίλα θέματα αρθρογραφίας.