Deepfakes, Διαδικτυακές απειλές, Εγκλήματα, Τεχνητή Νοημοσύνη

Tεχνητή Nοημοσύνη: Ο καθένας μπορεί να γίνει θύμα σεξουαλικής κακοποίησης μέσω των deepfakes

Μεταφράζει η Νίκη Χαραλαμπάκη

Η εξάπλωση των εργαλείων τεχνητής νοημοσύνης έχει καταστήσει ευκολότερη τη δημιουργία και διάδοση μη συναινετικών, ψεύτικων σεξουαλικών εικόνων οποιουδήποτε. Ωστόσο, τα θύματα αυτής της μορφής παρενόχλησης έχουν επιλογές.

«Το μόνο που χρειάζεται είναι μια ανθρώπινη μορφή για να γίνει θύμα». Έτσι περιγράφει η δικηγόρος Carrie Goldberg τον κίνδυνο της δημιουργίας κακοποιητικού υλικού μέσω deepfake στην εποχή της τεχνητής νοημοσύνης.

Αν και η μη συναινετική κοινοποίηση σεξουαλικών εικόνων — υπάρχει σχεδόν όσο και το διαδίκτυο, η εξάπλωση των εργαλείων τεχνητής νοημοσύνης σημαίνει ότι ο καθένας μπορεί να γίνει στόχος αυτής της μορφής παρενόχλησης, ακόμα κι αν δεν έχει ποτέ βγάλει ή στείλει γυμνή φωτογραφία. Τα εργαλεία τεχνητής νοημοσύνης μπορούν πλέον να τοποθετούν το πρόσωπο ενός ατόμου πάνω σε ένα γυμνό σώμα ή να τροποποιούν υπάρχουσες φωτογραφίες ώστε να φαίνεται ότι το άτομο δεν φοράει ρούχα.

Το περασμένο έτος, τα θύματα, μη συναινετικών εικόνων σεξουαλικού περιεχομένου που δημιουργήθηκαν με τεχνητή νοημοσύνη, κυμάνθηκαν από διάσημες γυναίκες, όπως η Taylor Swift και η βουλευτής Alexandria Ocasio-Cortez , έως μαθήτριες λυκείου.

«Για κάποιον που ανακαλύπτει ότι ο ίδιος ή το παιδί του έχει γίνει το αντικείμενο deepfake σεξουαλικής κακοποίησης, η εμπειρία είναι συνήθως τρομακτική και κατακλυσμιαία», δήλωσε η Goldberg, η οποία διευθύνει τη νομική εταιρεία C.A. Goldberg Law στη Νέα Υόρκη, που εκπροσωπεί θύματα σεξουαλικών εγκλημάτων και διαδικτυακής παρενόχλησης. «Ειδικά αν είναι νέοι και δεν ξέρουν πώς να το διαχειριστούν, και το διαδίκτυο είναι ένας τεράστιος, ασαφής χώρος», πρόσθεσε.

«Ωστόσο, υπάρχουν βήματα που μπορούν να ακολουθήσουν τα θύματα αυτής της μορφής παρενόχλησης για να προστατευτούν και μέρη στα οποία μπορούν να απευθυνθούν για βοήθεια», δήλωσε η Goldberg σε συνέντευξή της στο νέο τεχνολογικό podcast της CNN, Terms of Service με την Clare Duffy. Το Terms of Service έχει στόχο να απομυθοποιήσει τις νέες και αναδυόμενες τεχνολογίες που συναντούν οι ακροατές στην καθημερινή τους ζωή.

Η Goldberg είπε ότι για τα άτομα που στοχοποιούνται από σεξουαλικές εικόνες που δημιουργούνται με τεχνητή νοημοσύνη, το πρώτο βήμα — αν και αντιφατικό — θα πρέπει να είναι να τις αποθηκεύσουν ως στιγμιότυπα οθόνης.

«Η αυθόρμητη αντίδραση είναι να αφαιρέσουμε αυτό από το διαδίκτυο όσο το δυνατόν γρηγορότερα», είπε η Goldberg. «Αλλά αν θέλεις να έχεις τη δυνατότητα να το αναφέρεις νομικά, χρειάζεσαι τα αποδεικτικά στοιχεία».

Στη συνέχεια, μπορούν να αναζητήσουν τις φόρμες που παρέχουν πλατφόρμες όπως η Google, η Meta και το Snapchat για να ζητήσουν την αφαίρεση των εικόνων. Μη κερδοσκοπικοί οργανισμοί, όπως το StopNCII.org και το Take It Down, μπορούν επίσης να βοηθήσουν στην αφαίρεση τέτοιων εικόνων από πολλές πλατφόρμες ταυτόχρονα, αν και δεν συνεργάζονται όλοι οι ιστότοποι με αυτές τις ομάδες.

Μια διακομματική ομάδα γερουσιαστών έστειλε μια ανοικτή επιστολή τον Αύγουστο, καλώντας σχεδόν δώδεκα τεχνολογικές εταιρείες, συμπεριλαμβανομένων των X και Discord, να συμμετάσχουν στα προγράμματα.

Ο αγώνας για την αντιμετώπιση των μη συναινετικών εικόνων και των deepfakes έχει λάβει ελάχιστη διακομματική υποστήριξη. Ένα συγκρότημα εφήβων και γονέων που είχαν επηρεαστεί από εικόνες με σεξουαλικό περιεχόμενο που δημιουργήθηκαν με τεχνητή νοημοσύνη κατέθεσε σε ακρόαση στο Καπιτώλιο, όπου ο Ρεπουμπλικανός γερουσιαστής Ted Cruz παρουσίασε ένα νομοσχέδιο — που υποστηρίχθηκε από την Δημοκρατική γερουσιαστή Amy Klobuchar και άλλους — το οποίο θα καθιστά έγκλημα τη δημοσίευση τέτοιων εικόνων και θα απαιτεί από τις πλατφόρμες κοινωνικής δικτύωσης να τις αφαιρούν μόλις λάβουν ειδοποίηση από τα θύματα.

Προς το παρόν, τα θύματα καλούνται να αντιμετωπίσουν ένα συνονθύλευμα πολιτειακών νόμων. Σε ορισμένες περιοχές, δεν υπάρχουν ποινικοί νόμοι που να αποτρέπουν τη δημιουργία ή τη διανομή deepfakes ενηλίκων. (Οι σεξουαλικές εικόνες παιδιών που δημιουργούνται με τεχνητή νοημοσύνη συνήθως καλύπτονται από τους νόμους περί υλικού σεξουαλικής κακοποίησης παιδιών.)

«Η προληπτική συμβουλή μου απευθύνεται πραγματικά στους πιθανούς δράστες, η οποία είναι απλά: μην είστε τόσο ελεεινοί και μην προσπαθείτε να κλέψετε την εικόνα κάποιου για να τον ταπεινώσετε», δήλωσε η Goldberg. «Δεν υπάρχουν πολλά που μπορούν να κάνουν τα θύματα για να το αποτρέψουν … Δεν μπορούμε ποτέ να είμαστε πλήρως ασφαλείς σε μια ψηφιακή κοινωνία, αλλά εξαρτάται από τον καθένα μας να μην είναι εντελώς αχρείος».

Πηγή

https://edition.cnn.com/2024/11/12/tech/ai-deepfake-porn-advice-terms-of-service-wellness/index.html