Deepfakes, Έφηβος, Παιδιά, Τεχνητή Νοημοσύνη

Deepfake Child Sexual Abuse: Νέα μορφή ψηφιακού εκφοβισμού στα σχολεία

Γράφει η Νίκη Χαραλαμπάκη

Το deepfake sexual abuse ή όπως αλλιώς ονομάζεται “AI-generated image-based sexual abuse” , περιλαμβάνει τη χρήση της τεχνητής νοημοσύνης για τη δημιουργία μιας γυμνής ή/και σεξουαλικής εικόνας ενός ατόμου που κάνει ή λέει πράγματα που δεν έχει πει ή κάνει στην πραγματικότητα. Διασημότητες και δημόσια πρόσωπα, κυρίως γυναίκες, έχουν βιώσει τέτοια κακοποίηση για σχεδόν μια δεκαετία, με διάφορους deepfake ιστότοπους και «εφαρμογές γυμνοποίησης» άμεσα διαθέσιμες στο διαδίκτυο. Όμως, καθώς αυτές οι τεχνολογίες γίνονται πιο προσιτές και εξελιγμένες, αρχίζουμε να βλέπουμε αυτό το πρόβλημα να εξαπλώνεται και στα σχολεία. Οι έφηβοι ,ακόμα και τα μικρά παιδιά, γίνονται πλέον στόχος.

Αυτήν την στιγμή τα περιστατικά χρήσης αυτών των εφαρμογών στο σχολικό περιβάλλον έχουν αυξηθεί ραγδαία, τόσο στην Ελλάδα, όσο και παγκοσμίως. Παιδιά με περιορισμένη ψηφιακή εκπαίδευση, ανύπαρκτη γονική επίβλεψη, ελάχιστες τεχνικές γνώσεις και συχνά χωρίς να συνειδητοποιούν τις συνέπειες των πράξεών τους, αναρτούν τροποποιημένες φωτογραφίες συμμαθητών τους, χρησιμοποιώντας εύχρηστες εφαρμογές αυτοματοποιημένης επεξεργασίας εικόνων. Η συντριπτική πλειοψηφία (96%) του deepfake υλικού που κυκλοφορεί στο ίντερνετ αφορά αποκλειστικά την σεξουαλική κακοποίηση, όπου χρησιμοποιούνται τροποποιημένα βίντεο με εικόνες μαθητών, τα οποία έχουν δημιουργηθεί μέσω των προαναφερθέντων εφαρμογών, αντικαθιστώντας τα πρόσωπα που είχαν αρχικά καταγραφεί, με τα πρόσωπα των ανυποψίαστων ανηλίκων.

Όπως μπορεί να γίνει κατανοητό, το στίγμα που επιφέρουν αυτές οι εφαρμογές τόσο στις ψυχές όσο και στις ζωές των ανυποψίαστων ανηλίκων είναι ανεξίτηλο, καθώς λειτουργούν ως μέσο συνεχούς εκφοβισμού. Έτσι συνιστούν σημαντική απειλή για τη ψυχική υγεία και οδηγούν σε ένα τοξικό σχολικό περιβάλλον, όπου επικρατεί ο φόβος και η μόνιμη απειλή εκ νέου θυματοποίησης. Επιπρόσθετα, είναι αρκετά δύσκολή και πολύπλοκη διαδικασία η εξακρίβωση της αυθεντικότητας αυτών των βίντεο και η αφαίρεση τους από τον κυβερνοχώρο. Μάλιστα, σε μεγάλο αριθμό αντίστοιχων περιστατικών, μαθητές έχουν οδηγηθεί στην αυτοκτονία αδυνατώντας να αντέξουν το ψυχολογικό βάρος.

Πληθώρα σοβαρών περιπτώσεων που έχουν έρθει στο φως αναδεικνύουν τα αυξανόμενα κενά στην εθνική και ευρωπαϊκή νομοθεσία καθώς και την ανεπάρκεια του υφιστάμενου θεσμικού πλαισίου να προστατεύει τους μαθητές που γίνονται θύματα αυτής της νέας μορφής ψηφιακού εκφοβισμού. Δεδομένου ότι ο αριθμός των θυμάτων που μπορεί να προκύψει από τη δημιουργία και διάδοση αυτών των εικόνων σε πολύ σύντομο χρονικό διάστημα είναι τεράστιος, είναι απαραίτητο να υπάρξουν άμεσα τεχνολογικές και νομοθετικές αντιδράσεις.

Τι μπορούμε να κάνουμε όμως στη περίπτωση που αντιληφθούμε ότι ένα παιδί έχει πέσει θύμα αυτής της μορφής ψηφιακού εκφοβισμού; Το πρώτο βήμα είναι να εξασφαλίσουμε αποδεικτικά στοιχεία, για παράδειγμα μέσω των στιγμιότυπων οθόνης (screenshot), στα οποία να φαίνεται το υλικό που έχει αναρτηθεί καθώς και ο λογαριασμός που έκανε την ανάρτηση. Αυτό το βήμα είναι απαραίτητο για να μπορέσουμε να προβούμε σε καταγγελία. Παράλληλα μπορούμε και οι ίδιοι να απευθυνθούμε στις πλατφόρμες που αναρτήθηκε το υλικό για να κάνουμε αναφορά και να αιτηθούμε την αφαίρεσή του από τον ιστότοπο. Τέλος, είναι απαραίτητο να απευθυνθούμε σε ειδικούς ψυχικής υγείας για να παρέχουν ψυχολογική υποστήριξη στο παιδί και να το βοηθήσουν να ανακάμψει.

Πηγές

https://edition.cnn.com/2024/11/12/tech/ai-deepfake-porn-advice-terms-of-service-wellness/index.html 

https://www.tovima.gr/2024/04/12/opinions/oi-sxolikes-monades-stin-epoxi-ton-deepfakes-plastes-eikones-me-alithina-thymata/ 

https://theconversation.com/what-to-do-if-you-or-someone-you-know-is-targeted-with-deepfake-porn-or-ai-nudes-232175