Γράφει η Μέγα Β., φοιτήτρια Εγκληματολογικής Ψυχολογίας
Οι συζητήσεις γύρω από την τεχνητή νοημοσύνη (Artificial Intelligence, AI) συνεχώς αυξάνονται, καθώς η τεχνολογία αυτή τείνει να γίνει κομμάτι της καθημερινότητας του ανθρώπου. Οι κίνδυνοι και οι διευκολύνσεις που θα συναντήσουν οι χρήστες με την άνοδο της AI συζητούνται καθημερινά σε ιστοτόπους (forums), αναλύονται σε άρθρα αλλά ακόμα και σε επιστημονικές έρευνες. Tί γνωρίζετε όμως για τα αντίγραφα φωνής (deepfake voice) και τη δημιουργία συνθετικής φωνής (synthetic voice) μέσω AI;
Στα αντίγραφα φωνής (deepfake voice) ακολουθείται μια συγκεκριμένη τεχνική κατά την οποία μέσω της εκπαίδευσης των μοντέλων μηχανικής μάθησης δημιουργείται η φωνή ενός συγκεκριμένου ομιλητή. Συγκεκριμένα παρουσιάζονται στην ΑΙ μεγάλοι όγκοι ακουστικών δεδομένων που θα της επιτρέψουν να μιμηθεί τον τόνο, τη χροιά καθώς και τον “χαρακτήρα” της φωνής. Από την άλλη πλευρά η συνθετική φωνή (synthetic voice) είναι εξίσου δημιούργημα της AI, ωστόσο για τη δημιουργία συνθετικής φωνής χρησιμοποιείται ένας αλγόριθμός που μετατρέπει το κείμενο σε ομιλία (TTS, text-to-speech). Μέσω αυτής της τεχνολογίας μπορεί να δημιουργηθεί μια νέα φωνή, η οποία ακούγεται φυσική και ανθρώπινη αλλά είναι δημιούργημα της ΑΙ.
Ενώ και οι δυο τεχνολογίες είναι γνωστές και χρησιμοποιούνται, η συνθετική φωνή που δημιουργείται μέσω ΑΙ φαίνεται πως χρησιμοποιείται για πρακτικούς σκοπούς. Επίσης, η δημιουργία συνθετικής φωνής φαίνεται να μην είναι τόσο αμφιλεγόμενη όσο τα αντίγραφα φωνής που δημιουργούνται εύκολα μέσω ΑΙ. Τα αντίγραφα φωνής πιστεύεται πως μπορούν να χρησιμοποιηθούν για πληθώρα εξαπατήσεων και κακόβουλων πρακτικών όπως αναφέρονται παρακάτω:
- Εκλογική χειραγώγηση
- Κλοπή ταυτότητας
- Οικονομικές απάτες
- Πορνογραφία διάσημων προσώπων και ατόμων με μεγάλη παρουσία στα μέσα κοινωνικής δικτύωσης
Γνωστή πλέον είναι η απάτη μέσω τηλεφωνικής κλήσης όπου οι κυβερνοεκγληματίες καλούν το υποψήφιο θύμα και έχοντας αντιγράψει τη φωνή κάποιου αγαπημένου τους προσώπου προσπαθούν να αποσπάσουν χρήματα. Μια μητέρα στην Αριζόνα σήκωσε το τηλέφωνο και άκουσε στη γραμμή μια φωνή που ακουγόταν σαν τη φωνή της κόρης της. Η γυναίκα έκλαιγε και να της ζητούσε να τη βοηθήσει λέγοντας πως την έχουν απαγάγει. Ζήτησε 5.000$ για να την ελευθερώσουν οι απαγωγείς, ωστόσο η μητέρα κατάλαβε πως πρόκειται για απάτη και δεν έστειλε τα χρήματα.
Φυσικά υπάρχουν και θετικές πρακτικές στη χρήση των αντιγράφων φωνής όπως:
- Η αποκατάσταση της φωνής ατόμων που την έχασαν λόγω ασθένειας ή τραυματισμού
- Η διατήρηση της φωνής ιστορικών προσώπων
- Η εξατομίκευση των προσωπικών βοηθών (φανταστείτε να σας ξυπνά η φωνή σας κάθε πρωί)
Σε κάθε περίπτωση, οι νέες τεχνολογίες πρέπει να συνοδεύονται και από νέους νόμους καθώς πρέπει να προσαρμοστούμε στη νέα εποχή. Γερουσιαστές στην Αμερική παρουσίασαν το «No Fakes Act», ένα νέο νομοσχέδιο που σκοπός του είναι να προστατεύσει τις φωνές διάσημων προσώπων από τη δημιουργία υλικού μέσω της ΑΙ. Συγκεκριμένα η ανακοίνωσή τους ανέφερε πως το νομοσχέδιο «θα εμποδίσει ένα άτομο να παράξει ή να διανείμει κάποιο μη εξουσιοδοτημένο αντίγραφο που έχει παραχθεί μέσω τεχνητής νοημοσύνης χωρίς τη συγκατάθεση του ατόμου που αναπαράγεται σε αυτό». Αυτό το νομοσχέδιο είναι ένα πρώτο βήμα για τη δημιουργία ενός νομικού πλαισίου γύρω από τη δημιουργία και την αναπαραγωγή τέτοιου περιεχομένου. Ωστόσο, είναι σημαντικό να αναφερθεί πως το νομοσχέδιο δεν προστατεύει τους πολίτες από τις πιθανές απάτες που μπορεί να δημιουργήσουν οι κυβερνοεγκληματίες χρησιμοποιώντας αυτήν την τεχνολογία. Μελλοντικά θα ήταν χρήσιμο να προταθούν και να διαμορφωθούν νομοσχέδια που θα εξασφαλίζουν τα προσωπικά δεδομένα και την ταυτότητα όλων των πολιτών, καθώς με την αύξηση της χρήσης αυτών των τεχνολογιών οι πιθανότατες θυματοποίησης αυξάνονται.
Πηγές:
https://mashable.com/article/us-senate-no-fakes-act-protect-artists-ai-replication
https://murf.ai/resources/deepfake-voices/
Η εθελοντική ομάδα του CSI Institute, αποτελούμενη από εξειδικευμένους επιστήμονες όπως, ψυχολόγους, εγκληματολόγους, κοινωνιολόγους καθώς και τεχνικούς δικτύων & πληροφορικής, είναι κοντά σας παρέχοντας πληροφορία, ενημέρωση και γνώση μέσα από ποικίλα θέματα αρθρογραφίας.