Deepfakes, Ασφάλεια διαδικτύου, Τεχνητή Νοημοσύνη

Πώς μπορεί κάποιος να προστατευθεί από deepfake υλικό

Γράφει η Ελένη Παπανδρέου

Σύμφωνα με το άρθρο της Rebecca Ruiz, χαρακτηριστικό παράδειγμα deepfake αποτελεί η περίπτωση της διάσημης τραγουδίστριας Τaylor Swift, όπου οι φωτογραφίες της άρχισαν να γίνονται viral στο Twitter. Η πλατφόρμα διέγραψε τον λογαριασμό της και εν συνεχεία όρισε το όνομα της ως μη ανιχνεύσιμο, παρόλο που σε ορισμένους όρους αναζήτησης εξακολουθούσε να εμφανίζεται.

Ο εντοπισμός των deepfake βίντεο, απαιτεί σύγχρονα λογισμικά ασφάλειας. Συγκεκριμένα, έχει ήδη δημιουργηθεί μία κοινή προσπάθεια, από τις Adobe, Microsoft και Intel, που έχει ως στόχο την αναζήτηση τέτοιων βίντεο και την επαλήθευση αυτών. Είναι σημαντικό να αναφερθεί πως η εφαρμογή deepfake βρίσκεται σε όλα τα stores των smartphones.

Τα βίντεο deepfake βρίσκονται ακόμη σε ένα στάδιο κατά το οποίο τα ίδια τα θύματα είναι σε θέση να εντοπίσουν τα σχετικά σημάδια. Αρχικά, κάποια εμφανή χαρακτηριστικά deepfake είναι η αδέξια κίνηση του εικονιζόμενου προσώπου, οι αλλαγές στο φωτισμό από το ένα σημείο στο άλλο, καθώς και οι αλλαγές στον τόνο του δέρματος.

Σύμφωνα με τον Adam Dodge, δικηγόρο και ιδρυτή του Ending Tech-Enabled Abuse (EndTAB), η πλειονότητα της κατάχρησης αυτής βασίζεται σε εικόνες AI και συμβαίνει κυρίως με τη συμβολή δύο μέσων. Ένας τύπος διαπράττεται μέσω εφαρμογών που επιτρέπουν στους χρήστες να τραβήξουν μια υπάρχουσα εικόνα κάποιου και να τη μετατρέψουν σε ψεύτικο γυμνό χρησιμοποιώντας τον αλγόριθμο της εφαρμογής που υποστηρίζεται από AI. Ο δεύτερος τύπος κατάχρησης δημιουργείται από ψεύτικες εφαρμογές ανταλλαγής προσώπων, οι οποίες μπορούν να τοποθετήσουν το πρόσωπο κάποιου σε μια προϋπάρχουσα πορνογραφική εικόνα ή βίντεο. Αν και ψεύτικη, η εικόνα ή το βίντεο που προκύπτει είναι εκπληκτικά ρεαλιστική.

Στις περιπτώσεις που κάποιος πέσει θύμα deepfake χρειάζεται να απευθυνθεί στη Δίωξη Ηλεκτρονικού Εγκλήματος και να υποβάλει άμεσα μήνυση. Είναι σημαντικό να βρεθούν στοιχεία ταυτοποίησης του συγκεκριμένου λογαριασμού με ένα φυσικό πρόσωπο μέσω της άρσεως του απορρήτου των τηλεπικοινωνιών, η οποία επιτυγχάνεται με διάταξη από τον αρμόδιο εισαγγελέα πρωτοδικών.

Επιπλέον, τα θύματα deepfake είναι χρήσιμο να εκδώσουν ειδοποιήσεις κατάργησης του περιεχομένου σε πλατφόρμες που εμφανίζεται αυτό. Αξίζει να σημειωθεί ότι οι πλατφόρμες μέσων κοινωνικής δικτύωσης επιτρέπουν στους χρήστες να αναφέρουν όταν ένας χρήστης έχει δημοσιεύσει μη συναινετικές εικόνες τους στο διαδίκτυο. Τα αιτήματα κατάργησης έχουν χρησιμοποιηθεί για να βοηθήσουν τα θύματα των οποίων οι πραγματικές προσωπικές εικόνες κοινοποιήθηκαν χωρίς άδεια.

Μπορούν επίσης να υποβάλλουν και αίτημα για την αφαίρεση του ευρετηρίου εικόνων και βίντεο από τις σχετικές μηχανές αναζήτησης. Ειδικότερα, η Bing και η Google επιτρέπουν στους χρήστες να υποβάλλουν αιτήματα για την αφαίρεση ψεύτικων και μη συναινετικών πορνογραφικών εικόνων και βίντεο από τα αποτελέσματα αναζήτησής τους.

Ο Dodge συνιστά, επίσης, ένα δωρεάν εργαλείο που προσφέρεται από το StopNCII.org, μη κερδοσκοπικό οργανισμό που υποστηρίζει θύματα μη συναινετικής κατάχρησης εικόνας. Το εργαλείο αυτό επιτρέπει στα θύματα να επιλέξουν μια εικόνα ή ένα βίντεο από αυτά που έχουν κοινοποιηθεί χωρίς τη συγκατάθεσή τους και δημιουργεί ένα ψηφιακό δακτυλικό αποτύπωμα ως τρόπο επισήμανσης αυτού του περιεχομένου.

Τέλος, ο καθένας χρειάζεται να γνωρίζει τις νομικές επιλογές που έχει. Σε διεθνές επίπεδο, η κοινή χρήση deepfake μόλις έγινε έγκλημα στην Αγγλία και την Ουαλία. Στην Ευρώπη δεν υπάρχει νομοθεσία που να ρυθμίζει και να αντιμετωπίζει την χρήση αυτής της τεχνικής. Ωστόσο, η Ευρωπαϊκή Ένωση έχει υπογράψει τον Κώδικα Πρακτικής της Παραπληροφόρησης που παρουσιάστηκε τον Απρίλιο του 2018 και ανανεώθηκε τον Ιούνιο του 2022. Ο Κώδικας αυτός αντιμετωπίζει ορισμένα από αυτά τα προβλήματα και συγκεκριμένα θέτει ένα ευρύ φάσμα δεσμεύσεων για το κλείσιμο ψεύτικων λογαριασμών και για την απονομιμοποίηση των προμηθευτών παραπληροφόρησης.

Πηγές:

https://mashable.com/article/aideepfakepornwhatvictimscando 

https://www.tanea.gr/2023/11/18/sciencetechnology/deepfakeodigounseneokymaapatisposmporounnaparaviasountoustrapezikouslogariasmous/ 

https://privacy.ellak.gr/2023/04/20/todeepfakeosapilistonkivernochoroposmporinaantimetopisti/