Συμπεριφορά

Είναι deepfake ή μήπως όχι;

Aπό τη Ράνια Μαγουνάκη,

Η τεχνολογία deepfake βασίζεται στην βαθεία εκμάθηση (deep Learning) και αφορά την δημιουργία ενός ψεύτικου βίντεο στο οποίο γίνεται τροποποίηση τόσο του ήχου όσο και της εικόνας. Άμεσο λοιπόν αποτέλεσμα της deepfake  τεχνολογίας αποτελεί η δημιουργία ενός βίντεο στο οποίο οι εικόνες καθώς και οι ήχοι που αναπαράγονται να θεωρούνται αληθινά, ενώ  στην πραγματικότητα δεν είναι. Αναλυτικότερα, χαρακτηριστικές περιπτώσεις τέτοιου είδους τροποποιήσεων αφορούν: την αντικατάσταση του προσώπου ενός ατόμου με κάποιου άλλου, την παραποίηση διαλόγων, την αλλαγή των κινήσεων ακόμη και εκφράσεων του προσώπου ενός ατόμου.

Χαρακτηριστικό παράδειγμα είναι η ψηφιακή τροποποίηση  διάσημων προσώπων με κύριο στόχο τη δημιουργία διασκεδαστικών καθώς και σαρκαστικών memes. Επιπρόσθετα, ακόμη ένα αντιπροσωπευτικό παράδειγμα deepfake θεωρείται το βίντεο που κυκλοφόρησε το 2019 στο οποίο ο ιδρυτής του Facebook φαίνεται να αναφέρεται στα προσωπικά δεδομένα των χρηστών της συγκεκριμένης κοινωνικής πλατφόρμας. Στο σημείο αυτό, θα μπορούσαμε να πούμε με βεβαιότητα ότι η τεχνολογία deepfake αποτελεί έναν εναλλακτικό και καινοτόμο τρόπο σύγχρονης παραπληροφόρησης. Παράλληλα, ακόμη ένα βασικό παράδειγμα deepfake τεχνολογίας αποτελεί η κινέζικη εφαρμογή ZAO, η οποία εμφανίστηκε το 2019. Ειδικότερα, οι χρήστες της εφαρμογής ΖΑΟ έχουν την δυνατότητα να τοποθετήσουν το πρόσωπο τους στην θέση ενός διάσημου προσώπου λόγου χάρη ενός τραγουδιστή, ηθοποιού ,πολιτικού αλλά και σε video game χαρακτήρες.

Η τεχνολογία deepfake πρωτοεμφανίστηκε το 2017 και έκτοτε χρησιμοποιείται από διάφορες εφαρμογές κοινωνικής δικτύωσης προκειμένου να υλοποιήσει τον σκοπό της. Φαινομενικά ακούγεται αστείο αλλά και ακίνδυνο, ωστόσο οι συνέπειες της δημιουργίας ενός τέτοιου βίντεο μπορεί να αποβούν ολέθριες σε ευρεία κλίμακα. Πιο συγκεκριμένα, ο τρόπος που λειτουργεί ένα deepfake είναι ο εξής. Αρχικά, γίνεται χρήση ενός μοντέλου μηχανικής μάθησης, το οποίο στη συνέχεια σε συνδυασμό με τη διαχείριση ενός συνόλου δεδομένων (όσο μεγαλύτερο το δείγμα τόσο το καλύτερο) οδηγεί στη δημιουργία κάποιου πλαστού βίντεο. Έπειτα, το βίντεο που έχει δημιουργηθεί, ελέγχεται από ένα άλλο μοντέλο μηχανικής μάθησης το οποίο έχει ως στόχο την αναγνώριση της αυθεντικότητας του βίντεο. Παρόλα αυτά, λόγω του προφανή ρεαλισμού των συγκεκριμένων βίντεο η αναγνώριση τους καθίσταται ολοένα και πιο δύσκολη.

Αξίζει να αναφερθεί ότι οι αρνητικές συνέπειες των deepfakes γίνονται εμφανείς τόσο σε ατομικό όσο και σε συλλογικό επίπεδο. Πιο συγκεκριμένα, η χρήση φωτογραφιών για την αναπαραγωγή deepfake χωρίς την έγκριση του εικονιζόμενου ατόμου πέρα από το γεγονός ότι αποτελεί παραβίαση των ανθρωπίνων δικαιωμάτων θα μπορούσε να καταλήξει ακόμη και σε εκδικητική πορνογραφία, έχοντας ως πιθανή έκβαση ακόμη και την κοινωνική κατακραυγή του εκάστοτε θύματος. Επιπρόσθετα, τα deepfakes θα μπορούσαν να συμβάλλουν ακόμη και στην αύξηση του φαινομένου bullying κυρίως στα άτομα νεαρής ηλικίας.

Εν κατακλείδι, η παραπληροφόρηση στις μέρες μας αποτελεί ένα μείζον θέμα το οποίο οι επιστήμονες εκμεταλλευόμενοι την ραγδαία ανάπτυξη της τεχνολογίας προσπαθούν να εξαλείψουν τέτοιου είδους φαινόμενα. Ωστόσο, καίριο ρόλο στην ελάττωση αν όχι ολική εξάλειψη της αναπαραγωγής και δημοσίευσης fake news έχει η καλλιέργεια και ανάπτυξη της κριτικής σκέψης των ατόμων κάθε ηλικίας.