Η αλήθεια είναι πως η ανάπτυξη της τεχνητής νοημοσύνης (Artificial Intelligence, AI) έχει διχάσει την ανθρωπότητα. Μια μεγάλη μερίδα ανθρώπων θεωρεί πως η τεχνητή νοημοσύνη θα λύσει τα πανανθρώπινα προβλήματα, όπως φτώχεια και κοινωνικές ανισότητες. Πιστεύει πως μια ενδεχόμενη μελλοντική αυτοματοποίηση της παραγωγής, θα οδηγήσει σε μια κοινωνία, στην οποία οι άνθρωποι δε θα ασχολούνται πια με επίπονες και σωματικές εργασίες, αλλά, θα στρέψουν την προσοχή τους σε πιο καλλιτεχνικές δραστηριότητες. Από την άλλη, υπάρχει μεγάλη δυσπιστία ως προς την πορεία ανάπτυξης της AI και το κατά πόσο μπορεί η καινούρια τεχνολογία να χρησιμοποιηθεί για σκοπούς που δε συνάδουν με την επιστημονική και ανθρώπινη ηθική. Επίσης, πολλοί άνθρωποι φοβούνται πως θα χάσουν τη δουλειά τους από την AI. Σίγουρα, ψήγματα αλήθειας εντοπίζονται και στις δυο αυτές διαφορετικές οπτικές.
Η τεχνητή νοημοσύνη έχει βοηθήσει σε μεγάλο βαθμό τις διαδικτυακές μας αναζητήσεις. Αποτελεί ένα πολύ σημαντικό εργαλείο στα χέρια της ανθρωπότητας που δύναται να δημιουργήσει νέους τομείς εργασίας. Επίσης, η δυνατότητα που μας προσφέρει να δημιουργεί μια εικόνα μέσα από δικές μας περιγραφές (text-to-image) αποτελεί ένα τεχνολογικό θαύμα.
Από την άλλη, κατά πόσο θα είμαστε σε θέση να αναγνωρίζουμε αν μια εικόνα ή ένα ποίημα είναι ανθρώπινο δημιούργημα ή κατασκεύασμα ενός προγράμματος που απλώς μιμείται την ανθρώπινη γλώσσα και έκφραση; Σε τι βαθμό έχουν δίκιο οι άνθρωποι που φοβούνται πως θα χάσουν τη δουλειά τους από την τεχνητή νοημοσύνη; Σίγουρα, όλα αυτά τα φλέγοντα ερωτήματα θα απαντηθούν, έμμεσα ή άμεσα, στο εγγύς μέλλον. Όμως, το μεγαλύτερο πρόβλημα της τεχνητής νοημοσύνης βρίσκεται μπροστά μας και κρίνεται αναγκαίο να ληφθούν όλα τα απαραίτητα μέτρα, ώστε να αντιμετωπισθεί εγκαίρως.
Στις 25 Οκτωβρίου, πριν λίγες μέρες, η Internet Watch Foundation (εφεξής IWF) εντόπισε πολλές φωτογραφίες-υλικό παιδικής σεξουαλικής κακοποίησης, οι οποίες ήταν δημιουργήματα της τεχνολογίας που αναφέρθηκε παραπάνω (text-to-image). Όπως ανέφεραν οι αναλυτές της IWF, οι εν λόγω εικόνες ήταν τόσο αληθοφανείς που ακόμα και ένας έμπειρος επιστήμονας δεν θα μπορούσε να διακρίνει με σιγουριά αν αποτελούν πραγματικές εικόνες κακοποίησης παιδιών ή ψεύτικες, ψηφιακά κατασκευασμένες.
Συγκεκριμένα, η έρευνα εστίασε σε ένα φόρουμ εντός του Dark Web και το αποτέλεσμα ήταν απογοητευτικό, όσο και ανησυχητικό. Μέσα σε ένα μήνα, ερευνήθηκαν τουλάχιστον 11.000 ΄΄φωτογραφίες΄΄ παιδικής κακοποίησης μέσω AI, ενώ πάνω από 2.000 ήταν άκρως ρεαλιστικές. Από αυτές, περίπου 500 κατατάχθηκαν στην ΄΄Κατηγορία Α’΄΄. Σε αυτήν, υπάγονται οι πολύ σοβαρές περιπτώσεις, όπως βιασμός και βασανισμός. Τέλος, πάνω από 1.000 απεικόνιζαν παιδιά κάτω των 10 ετών, ενώ λιγότερες παιδιά κάτω των 6, ακόμα και βρέφη.
Η παραπάνω έρευνα πρέπει να μας προβληματίσει, ώστε να αντιληφθούμε πως η νέα τεχνολογία μπορεί να χρησιμοποιηθεί και ως μέσο εγκληματικότητας, συγκεκριμένα ως ΄΄δεξαμενή΄΄ υλικού παιδικής σεξουαλικής κακοποίησης. Καταληκτικά, όπως αναφέρει και η IWF, η νομοθεσία του Ηνωμένου Βασιλείου και, κατ’ επέκταση, η παγκόσμια νομοθεσία κρίνεται αναγκαίο να ποινικοποιήσει τις ψηφιακά κατασκευασμένες εικόνες διαμέσου AI, καθώς, αν δε ληφθούν τα απαραίτητα μέτρα, η κατάσταση δυστυχώς ολοένα και θα επιδεινώνεται.
Πηγές:
https://www.iwf.org.uk/news-media/news/pivotal-moment-as-online-safety-act-gains-royal-assent/
Ονομάζομαι Ραφαήλ Αδαμίδης και είμαι απόφοιτος του τμήματος Ιστορίας και Εθνολογίας του Δημοκριτείου Πανεπιστημίου Θράκης, καθώς και του Μεταπτυχιακού Προγράμματος της Εγκληματολογίας του Πανεπιστημίου Λευκωσίας. Είμαι εθελοντής αρθρογράφος στο Διεθνές Ινστιτούτο Κυβερνοασφάλειας (CSI Institute).