Γράφει η Βίκυ Βούλτσου, μεταπτυχιακή φοιτήτρια Εγκληματολογικής Ψυχολογίας
Είναι πασίδηλο ότι η ανάπτυξη της τεχνολογίας έφερε στο προσκήνιο νέα εγκλήματα ηλεκτρονικού χαρακτήρα. Μια από τις ενέργειες που μπορεί να θεωρηθεί εγκληματική – χωρίς ωστόσο να υπάρχει σχετική νομοθεσία – είναι τα «deepfakes». Πρόκειται για το προϊόν των εφαρμογών τεχνητής νοημοσύνης (artificial intelligence, AI), το οποίο μπορεί να αλλάξει σε μια φωτογραφία το πρόσωπο ή το σώμα του ατόμου, μπορεί να δημιουργήσει ένα χιουμοριστικό, πορνογραφικό ή πολιτικό βίντεο ενός ατόμου που λέει οτιδήποτε, χωρίς τη συγκατάθεση του προσώπου, του οποίου η εικόνα και η φωνή εμπλέκεται.
Πόσο μακριά έχει τελικά φτάσει η τεχνολογία; Μέχρι ποιο σημείο είναι αποδεκτό να έχουμε ένα μέσο, το οποίο μπορεί να αλλάξει ένα πραγματικό γεγονός σε ψευδές και ταυτόχρονα να το κάνει να φαίνεται αληθινό; Ένα ζωντανό παράδειγμα έρχεται από τον περασμένο Μάρτιο, οπότε και εμφανίστηκε ένα βίντεο, που έδειχνε τον πρόεδρο Βολοντίμιρ Ζελένσκι να λέει στον λαό της Ουκρανίας να καταθέσει τα όπλα και να παραδοθεί στη Ρωσία.
Σύμφωνα με το BBC, η Intel δημιούργησε το σύστημα «FakeCatcher», το οποίο έχει αποδειχτεί ότι μπορεί να αναγνωρίσει σε ένα αρκετά ικανοποιητικό ποσοστό – 96% σύμφωνα με την ίδια την εταιρία – τα deepfakes. Η επικεφαλής επιστήμονας της ερευνητικής ομάδας που το σχεδίασε είναι η Ilke Demir, η οποία και συνεργάστηκε με τον Umur Cifti.
To «FakeCatcher» χρησιμοποιεί τη μέθοδο της φωτοπληθυσμογραφίας (photoplethysmogram, PPG), η οποία εντοπίζει τις αλλαγές στη ροή του αίματος που ανιχνεύονται στο πρόσωπο, καθώς τα πρόσωπα που δημιουργούνται από τα deepfakes δεν εκπέμπουν αυτά τα σήματα. Επίσης, αναλύει τη κίνηση των ματιών, καθώς έχει αποδειχτεί ότι οι ανωμαλίες στην συχνότητα κίνησης των βλεφάρων είναι ένα διακριτό χαρακτηριστικό για την ανίχνευση ψεύτικων εικόνων.
Σε έναν κόσμο που δε μπορούμε να διακρίνουμε τι είναι πραγματικό και τι όχι, δε ξέρουμε τι να πιστέψουμε και καταλήγουμε με ένα συνεχές αίσθημα καχυποψίας. Χάνεται η εμπιστοσύνη των ανθρώπων. Αυτό όμως πλήττει κι άλλους τομείς, όπως τη δημοσιογραφία και τα μέσα ενημέρωσης, τα οποία ο κόσμος αμφισβητεί συνεχώς. Βέβαια, μπορεί να λειτουργήσει και αντίστροφα και όντως να χρησιμοποιηθούν για τη διάδοση ψεύτικων ειδήσεων και παραπληροφόρησης. Ωστόσο, τα «deepfakes» δεν είναι αναγκαίο να χρησιμοποιηθούν μόνο με σκοπό να χειραγωγήσουν, αλλά μπορεί ένα βίντεο να είναι πραγματικό και να χρησιμοποιηθεί η δικαιολογία ότι είναι «deepfake» προκειμένου να αρνηθούν προηγούμενες πράξεις.
Τέλος, αξίζει να αναφερθούμε και στα θύματα του «deepfake». Τα άτομα σε αυτή τη περίπτωση βρίσκονται σε μια φάση όπου έχει διαλυθεί η φήμη τους, νιώθουν ντροπή και οδηγούνται στην απομόνωση. Μπορεί να μην είναι οι ίδιοι στη φωτογραφία/βίντεο στηn πραγματικότητα αλλά είτε είναι δύσκολο να φανεί ότι η φωτογραφία/ βίντεο είναι ψεύτικα, είτε είναι δύσκολο να αποδεχτούν ότι βλέπουν τον εαυτό τους σε όποια κατάσταση τους απεικονίζουν. Κρίνεται, λοιπόν, αναγκαία η εξάλειψη των «deepfakes».
Πηγές:
https://timreview.ca/article/1282
https://advanced-television.com/2023/07/24/bbc-tests-intel-deepfake-detector/
https://www.bbc.com/news/technology-66267961
Η εθελοντική ομάδα του CSI Institute, αποτελούμενη από εξειδικευμένους επιστήμονες όπως, ψυχολόγους, εγκληματολόγους, κοινωνιολόγους καθώς και τεχνικούς δικτύων & πληροφορικής, είναι κοντά σας παρέχοντας πληροφορία, ενημέρωση και γνώση μέσα από ποικίλα θέματα αρθρογραφίας.