Μετάφραση
Ακόμα και όταν κάποιοι φοβόντουσαν ότι ο πόλεμος θα ήταν ο πρώτος στην ιστορία που θα κατακλυζόταν από μηχανικά κατασκευασμένες ψεύτικες εικόνες, αυτό δεν συνέβη. Ο αντίκτυπος της τεχνολογίας στη σύγκρουση είναι πολύ πιο ανεπαίσθητος.
Τις εβδομάδες από τότε που η Χαμάς εξαπέλυσε την αιφνιδιαστική επίθεση της 7ης Οκτωβρίου στο Ισραήλ, η σύγκρουση που ακολούθησε δημιούργησε ένα άνευ προηγουμένου κύμα παραπληροφόρησης, μια “αλγοριθμικά καθοδηγούμενη ομίχλη πολέμου” που έβαλε εμπόδια σε βασικούς νέους οργανισμούς και άφησε τις εταιρείες μέσων κοινωνικής δικτύωσης να παραπαίουν.
Ωστόσο, εν μέσω όλων των παραπλανητικών εικόνων και βίντεο που κυκλοφορούν στα μέσα κοινωνικής δικτύωσης, το περιεχόμενο που παράγεται από εργαλεία τεχνητής νοημοσύνης έχει παραμείνει σχετικά περιφερειακό. Ακόμα και όταν κάποιοι αναρωτιόντουσαν αν ο πόλεμος Ισραήλ-Χαμάς θα ήταν η πρώτη σύγκρουση στην οποία θα κυριαρχούσαν οι ψευδείς εικόνες τεχνητής νοημοσύνης, η τεχνολογία είχε έναν πιο σύνθετο και διακριτικό αντίκτυπο.
“Σίγουρα κυκλοφορούν εικόνες τεχνητής νοημοσύνης, αλλά όχι σε τέτοιο βαθμό ώστε να πιστεύω ότι παίζει κεντρικό ρόλο στη διάδοση της πληροφορίας”, λέει η Layla Mashkoor, συνεργάτης στο Εργαστήριο Ψηφιακής Εγκληματολογικής Έρευνας του Atlantic Council, το οποίο μελετά την παραπληροφόρηση στο διαδίκτυο.
Κατά κύριο λόγο, δηλώνει η Mashkoor, η παραπληροφόρηση που δημιουργείται από την τεχνητή νοημοσύνη χρησιμοποιείται από ακτιβιστές για να αποσπάσουν υποστήριξη -ή να δώσουν την εντύπωση ευρύτερης υποστήριξης για μια συγκεκριμένη πλευρά. Τα παραδείγματα περιλαμβάνουν μια διαφημιστική πινακίδα στο Τελ Αβίβ που δημιουργήθηκε με τεχνητή νοημοσύνη και υπερασπίζεται τις Ισραηλινές Δυνάμεις Άμυνας, έναν ισραηλινό λογαριασμό που μοιράζεται ψεύτικες εικόνες ανθρώπων που επευφημούν τις ένοπλες δυνάμεις, μια ισραηλινή διαδικτυακή προσωπικότητα (influencer) που χρησιμοποιεί τεχνητή νοημοσύνη για να δημιουργήσει καταδίκες της Χαμάς και εικόνες τεχνητής νοημοσύνης που απεικονίζουν θύματα του βομβαρδισμού της Γάζας από το Ισραήλ.
“Όσον αφορά τη γενική χρήση που έχω δει στο διαδίκτυο, ήταν κυρίως για να αντλήσει υποστήριξη, η οποία δεν είναι από τους πιο κακόβουλους τρόπους χρήσης της τεχνητής νοημοσύνης αυτή τη στιγμή”, αναφέρει.
Ένας βασικός παράγοντας εδώ είναι η τεράστια ποσότητα παραπληροφόρησης που κυκλοφορεί, γεγονός που καθιστά δύσκολο για τις εικόνες τεχνητής νοημοσύνης να διαμορφώσουν μια συζήτηση. “Ο χώρος των πληροφοριών ήδη κατακλύζεται από πραγματικές και αυθεντικές εικόνες και πλάνα”, λέει η Mashkoor, “και αυτό από μόνο του κατακλύζει τις πλατφόρμες κοινωνικής δικτύωσης”.
Αυτό το σημείο αντικατοπτρίζεται σε ένα πρόσφατο έγγραφο από το Κέντρο Παραπληροφόρησης της Σχολής Κένεντι του Χάρβαρντ σχετικά με τον ρόλο που μπορεί να διαδραματίσει η παραγωγική τεχνητή νοημοσύνη στην εξάπλωση ψευδών πληροφοριών παγκοσμίως. Σε αυτό, οι συγγραφείς σημειώνουν ότι οι ανησυχίες σχετικά με τις επιπτώσεις της τεχνολογίας είναι “υπερβολικές”. Ενώ, ναι, η παραγωγική τεχνητή νοημοσύνη θεωρητικά επιτρέπει στους ανθρώπους να διαδίδουν την παραπληροφόρηση με έναν φουτουριστικό ρυθμό, εκείνοι που αναζητούν αυτή την παραπληροφόρηση -συχνά εκείνοι που έχουν “χαμηλή εμπιστοσύνη στους θεσμούς … [ή είναι] έντονα κομματικοποιημένοι”- έχουν ήδη μια πληθώρα γνωστών παρανοήσεων για να ακολουθήσουν, από ιστοσελίδες θεωριών συνωμοσίας μέχρι φόρουμ του 4chan (αγγλόφωνος ιστότοπος ανώνυμων συζητήσεων).
“Δεδομένης της δημιουργικότητας που έχουν επιδείξει οι άνθρωποι σε όλη την ιστορία για να επινοούν (ψευδείς) ιστορίες και της ελευθερίας που έχουν ήδη οι άνθρωποι να δημιουργούν και να διαδίδουν παραπληροφόρηση σε όλο τον κόσμο, είναι απίθανο ότι ένα μεγάλο μέρος του πληθυσμού αναζητά παραπληροφόρηση που δεν μπορεί να βρει στο διαδίκτυο ή εκτός σύνδεσης”, καταλήγει το έγγραφο. Επιπλέον, η παραπληροφόρηση αποκτά ισχύ μόνο όταν την βλέπουν οι άνθρωποι, και λαμβάνοντας υπόψη ότι ο χρόνος που έχουν οι άνθρωποι για το δημοφιλές (viral) περιεχόμενο είναι πεπερασμένος, ο αντίκτυπος είναι αμελητέος.
Όσον αφορά τις εικόνες που θα μπορούσαν να βρουν το δρόμο τους στις κυρίαρχες ροές ειδήσεων, οι συγγραφείς σημειώνουν ότι ενώ η παραγωγική τεχνητή νοημοσύνη μπορεί θεωρητικά να αποδώσει εξαιρετικά εξατομικευμένο και ρεαλιστικό περιεχόμενο, το ίδιο μπορεί να κάνει και το Photoshop ή το λογισμικό επεξεργασίας βίντεο. Οι δημοσιογράφοι και οι ελεγκτές γεγονότων παλεύουν λιγότερο με τα deepfakes από ότι με εικόνες εκτός πλαισίου ή με εικόνες που έχουν χειραγωγηθεί χονδροειδώς σε κάτι που δεν είναι, όπως πλάνα από βιντεοπαιχνίδια που παρουσιάζονται ως επίθεση της Χαμάς.
Υπό αυτή την έννοια, η υπερβολική εστίαση σε μια εντυπωσιακή νέα τεχνολογία είναι συχνά μια παραπλανητική κίνηση. “Το να είσαι ρεαλιστής δεν είναι πάντα αυτό που αναζητούν οι άνθρωποι ή αυτό που χρειάζεται για να γίνουν viral στο διαδίκτυο”, προσθέτει ο Sacha Altay, συν-συγγραφέας του άρθρου και μεταδιδακτορικός ερευνητής, του οποίου το τρέχον πεδίο αφορά την παραπληροφόρηση, την εμπιστοσύνη και τα μέσα κοινωνικής δικτύωσης στο Εργαστήριο Ψηφιακής Δημοκρατίας του Πανεπιστημίου της Ζυρίχης.
Ο Felix Simon, άλλος ένας από τους συγγραφείς του εγγράφου της Σχολής Κένεντι και διδακτορικός φοιτητής στο Ινστιτούτο Διαδικτύου της Οξφόρδης, προειδοποιεί ότι το σχόλιο της ομάδας του δεν επιδιώκει να τερματίσει τη συζήτηση σχετικά με τις πιθανές βλάβες, αλλά αντίθετα είναι μια προσπάθεια να αποκρούσει τους ισχυρισμούς ότι η τεχνητή νοημοσύνη θα προκαλέσει “έναν Αρμαγεδδώνα της αλήθειας”. Αυτού του είδους οι πανικοί συνοδεύουν συχνά τις νέες τεχνολογίες.
Αφήνοντας στην άκρη την αποκαλυπτική άποψη, είναι ευκολότερο να μελετηθεί πώς η παραγωγική τεχνητή νοημοσύνη έχει πραγματικά ενταχθεί στο υπάρχον οικοσύστημα παραπληροφόρησης. Είναι, για παράδειγμα, πολύ πιο διαδεδομένη από ό,τι ήταν στην αρχή της ρωσικής εισβολής στην Ουκρανία, υποστηρίζει ο Hany Farid, καθηγητής στη Σχολή Πληροφορικής του UC Berkeley.
Ο Farid χαρακτηρίζει την τεχνολογία ως “φάντασμα” και υποστηρίζει ότι δέχεται κλήσεις καθημερινά από δημοσιογράφους που ρωτούν για την εγκυρότητα των βίντεο και των εικόνων που κυκλοφορούν. “Για πολλούς ανθρώπους, η ικανότητα να απορρίπτουν τα άβολα γεγονότα παίζει απολύτως ρόλο σε αυτή τη σύγκρουση”, λέει.
Μερικά από τα πιο γνωστά παραδείγματα είναι οι φωτογραφίες καμένων παιδιών που δημοσίευσε ο Ισραηλινός πρωθυπουργός Νετανιάχου στον λογαριασμό του στο X. Αφού δημοσιεύθηκαν, κάποιος τροφοδότησε τις εικόνες στο εργαλείο ανίχνευσης “AI or Not” (τεχνητή νοημοσύνη ή όχι), το οποίο, σύμφωνα με τους χρήστες, διαπίστωσε ότι πρόκειται για τεχνητή νοημοσύνη. Ο Farid λέει ότι η ομάδα του ανέλυσε τις φωτογραφίες και κατέληξε στο συμπέρασμα ότι δεν χρησιμοποιήθηκε τεχνητή νοημοσύνη, αλλά ο σπόρος της υποψίας είχε ήδη φυτευτεί. Τα πράγματα μπερδεύτηκαν ακόμη περισσότερο όταν κάποιος χρησιμοποίησε τεχνητή νοημοσύνη για να αντικαταστήσει το παιδί σε μία από τις εικόνες με ένα κουτάβι.
Με άλλα λόγια, αυτή η διανομή ακολουθεί ένα ιστορικό μοτίβο: Η παραπληροφόρηση διαμοιράζεται στα μέσα κοινωνικής δικτύωσης και στη συνέχεια ενισχύεται μέσω αλγορίθμων και ανθρώπων.”Στην ευρύτερη εικόνα, στην ικανότητά μας να σκεφτόμαστε για έναν ταχέως κινούμενο κόσμο με μεγάλη απήχηση, νομίζω ότι αυτή η σύγκρουση είναι χειρότερη από ό,τι έχουμε δει στο παρελθόν”, λέει ο Farid. “Και νομίζω ότι η παραγωγική τεχνητή νοημοσύνη είναι μέρος αυτού, αλλά δεν είναι αποκλειστικά η τεχνητή νοημοσύνη. Αυτό είναι πολύ απλοϊκό”.
Πηγή:
https://www.wired.com/story/israel-hamas-war-generative-artificial-intelligence-disinformation/
Η εθελοντική ομάδα του CSI Institute, αποτελούμενη από εξειδικευμένους επιστήμονες όπως, ψυχολόγους, εγκληματολόγους, κοινωνιολόγους καθώς και τεχνικούς δικτύων & πληροφορικής, είναι κοντά σας παρέχοντας πληροφορία, ενημέρωση και γνώση μέσα από ποικίλα θέματα αρθρογραφίας.