Γράφει η Μέγα Β.
Τα τελευταία χρόνια ακούμε όλο και πιο συχνά τον όρο «deepfake». Στα ελληνικά θα μπορούσαμε να ορίσουμε τα deepfakes ως πλαστά ή και συνθετικά βίντεο. Αυτή η τεχνολογία, αν και νέα για το ευρύ κοινό, δημιουργήθηκε στην πρώιμη μορφή της από ακαδημαϊκούς της κοινότητας ήδη από το 1997. Ωστόσο, έγινε ευρέως γνωστή με την ονομασία «deepfake» το 2017 από έναν χρήστη του Reddit, ο οποίος ανέβασε στην πλατφόρμα εικόνες, οι οποίες είχαν υποστεί επεξεργασία.
Τι είναι τα deepfakes;
Τα deepfakes είναι ένα ακόμη εργαλείο της τεχνητής νοημοσύνης (Artificial Intelligence – AI). Το συνθετικό «deep», που σημαίνει βαθύς, το έχουν δανειστεί από τον όρο «deep learning» που ουσιαστικά εξηγεί έναν τύπο μηχανικής εκμάθησης, κατά τον οποίο ο υπολογιστής μαθαίνει να επεξεργάζεται τεράστιους όγκους πληροφοριών, για να μπορεί να εκτελεί διάφορες δραστηριότητες. Το deepfake περιεχόμενο μπορεί πλέον να δημιουργηθεί με ευκολία από κάθε χρήστη του διαδικτύου, με πολλαπλές πλατφόρμες να επιτρέπουν τη δημιουργία ενός τέτοιου υλικού γρήγορα και απλά. Μέσω αυτών μπορούν να αλλοιωθούν τα χαρακτηριστικά μίας εικόνας, ενός βίντεο αλλά και ο ήχος αυτού, δημιουργώντας εκ νέου μια διαφορετική πραγματικότητα από αυτήν που προβάλλεται στην αρχική εικόνα ή βίντεο.
Υπάρχει κίνδυνος για τους χρήστες;
Όπως κάθε νέα τεχνολογία μπορεί να χρησιμοποιηθεί προς όφελος του ανθρώπου, έτσι μπορεί και να χρησιμοποιηθεί για να τον βλάψει. Μέσω deepfake περιεχομένου είναι πλέον πολύ εύκολο για τους κυβερνοεγκληματίες να μιμηθούν κάποιο πρόσωπο ή να δημιουργήσουν περιεχόμενο ικανό να μπερδέψει ένα άτομο και με την αίσθηση του επείγοντος να δώσει χρήματα νομίζοντας πως θα βοηθήσει έναν δικό του άνθρωπο. Βέβαια, οι κίνδυνοι που έχει δημιουργήσει αυτό το περιεχόμενο δεν σταματούν εκεί.
Η δημιουργία πλαστών εικόνων, βίντεο και ηχητικού περιεχομένου μοιάζουν λες και έχουν βγει από τη φαντασία κάποιου συγγραφέα τρόμου, όμως ακόμη πιο τρομακτική ακούγεται η πιθανότητα δημιουργίας μιας πλαστής ταυτότητας με τα χαρακτηριστικά του θύματος. Η αναφορά αυτή γίνεται λόγω της ευρείας χρήσης βιομετρικών στοιχείων που χρησιμοποιούνται από μεγάλο ποσοστό χρηστών για την επαλήθευση της ταυτότητάς τους (π.χ αναγνώριση προσώπου και φωνής).
Πόσο εύκολα μπορούν οι κυβερνοεγκληματίες να μιμηθούν την εικόνα και τη φωνή μας, έτσι ώστε να αποκτήσουν πρόσβαση σε προσωπικά αρχεία και συσκευές μας; Ήδη είναι πολύ εύκολο να κατασκευαστεί ένας κλώνος του καθενός μέσω της τεχνητής νοημοσύνης. Οι γνωστοί πλέον ως ΑΙ clones βασίζονται σε πραγματικούς ανθρώπους και μπορούν να μιμηθούν τις κινήσεις, τον τρόπο ομιλίας τους αλλά και τη συμπεριφορά τους. Αυτού του είδους η τεχνολογία δημιουργεί δίλημμα για το κατά πόσον η χρήση της είναι ηθική, καθώς και πόσο εύκολα μπορεί να χρησιμοποιηθεί εκτός από απάτες, για να βλάψει την εικόνα ενός προσώπου ή να λάβει πρόσβαση σε ευαίσθητα προσωπικά δεδομένα του χρήστη.
Μπορούμε να καταλάβουμε το deepfake περιεχόμενο;
Το deepfake περιεχόμενο που δημιουργείται από δωρεάν διαδικτυακές πλατφόρμες είναι πολύ πιθανό να γίνει αντιληπτό λόγω αστοχιών στην κινησιολογική έκφραση της φιγούρας, την κίνηση του στόματος και το παράξενο άνοιγμα και κλείσιμο των ματιών. Ακόμα, η διαφοροποίηση στον τόνο του δέρματος, καθώς και η διαφοροποίηση στον φωτισμό μπορούν επίσης να προδώσουν ένα τέτοιου τύπου βίντεο. Ωστόσο, υπάρχουν πλατφόρμες στις οποίες οι κυβερνοεγκληματίες έχουν τη δυνατότητα να δημιουργήσουν πολύ πειστικά deepfakes, που ακόμα και το πιο εκπαιδευμένο μάτι δεν μπορεί να τα διακρίνει.
Δεν πρόκειται να συμβεί κάτι τέτοιο στην Ελλάδα
Η σκέψη πως το deepfake περιεχόμενο δεν μπορεί να μας αγγίξει είναι λανθασμένη. Δυστυχώς, επειδή πρόκειται για ένα διαδικτυακό εργαλείο η ακτίνα στην οποία οι εγκληματίες μπορούν να δράσουν, δεν αναγνωρίζει σύνορα. Πρόσφατα στη χώρα μας η δημοσιογράφος Βίκυ Χατζή έπεσε θύμα deepfake περιεχομένου. Οι κυβερνοεγκληματίες κλωνοποίησαν τη φωνή της δημοσιογράφου και τροποποίησαν τις κινήσεις των χειλιών της έτσι ώστε να συνάδουν με το λόγο της και προσπάθησαν να προτρέψουν τον κόσμο να κατεβάσει μια εφαρμογή μέσω της οποίας θα μπορούσαν να παίξουν σε διαδικτυακό καζίνο και να κερδίσουν μεγάλα χρηματικά ποσά.
Πώς μπορούμε να προστατευτούμε;
Σίγουρα η αβεβαιότητα και ο φόβος που μπορεί να δημιουργεί στον κόσμο αυτή η τεχνολογία είναι δικαιολογημένα συναισθήματα. Ωστόσο, για να υπάρξει προστασία, χρειάζεται να υπάρχει και γνώση για αυτήν. Το κοινό χρειάζεται να επιλέγει να παρακολουθεί έγκυρες ειδησεογραφικές πλατφόρμες, καθώς και να αναλύει με κριτική σκέψη το καθετί που παρακολουθεί. Δυστυχώς, η φράση «δεν το πιστεύω μέχρι να το δω» στην εποχή των deepfakes έχει λάβει ένα εντελώς διαφορετικό και διαστρεβλωμένο νόημα.
Πηγές:
https://terranovasecurity.com/blog/deepfake/
https://www.britannica.com/technology/deepfake
https://medium.com/@songda/a-short-history-of-deepfakes-604ac7be6016
https://theconversation.com/ai-clones-made-from-user-data-pose-uncanny-risks-206357
https://www.youtube.com/watch?v=mozWsx66I44
https://www.kaspersky.com/resource-center/threats/protect-yourself-from-deep-fake
Η εθελοντική ομάδα του CSI Institute, αποτελούμενη από εξειδικευμένους επιστήμονες όπως, ψυχολόγους, εγκληματολόγους, κοινωνιολόγους καθώς και τεχνικούς δικτύων & πληροφορικής, είναι κοντά σας παρέχοντας πληροφορία, ενημέρωση και γνώση μέσα από ποικίλα θέματα αρθρογραφίας.