Bullying, Cyber, Ψυχική υγεία

Tεχνητή νοημοσύνη: Eχθρός ή σύμμαχος στη μάχη ενάντια στον διαδικτυακό εκφοβισμό (cyber-bullying)

Aπό τον Δημήτρη Τακετζή

Τι είναι ο διαδικτυακός εκφοβισμός (cyber bullying);

Ο διαδικτυακός εκφοβισμός είναι η χρήση της τεχνολογίας ως μέσου για τον εκφοβισμό ενός τρίτου. Μολονότι είναι ένα ζήτημα που υπάρχει εδώ και αρκετά χρόνια, η αναγνώριση των επιπτώσεών της στους νέους έχει αυξηθεί πολύ τα τελευταία χρόνια. Οι ιστότοποι κοινωνικής δικτύωσης παρέχουν ένα πρόσφορο μέσο και οι έφηβοι ή οι νέοι ενήλικες που χρησιμοποιούν αυτά τα μέσα είναι ευάλωτοι σε επιθέσεις με δυσμενείς επιπτώσεις στην προσωπική ζωή τους, την κοινωνική τους δραστηριότητα, ενώ έχουν παρατηρηθεί ακόμη και περιπτώσεις που τα θύματα έχουν αποπειραθεί ή και έχουν βάλει τέλος στη ζωή τους.

 

Η μηχανική μάθηση στην υπηρεσία του εντοπισμού και πρόληψης των επιπτώσεων του διαδικτυακού εκφοβισμού.

Εδώ και λίγα χρόνια έχουν δημοσιευτεί επιστημονικές έρευνες στον τομέα της προστασίας των νέων από τον διαδικτυακό εκφοβισμό με την αναζήτηση μια αποτελεσματικής λύσης η οποία παράλληλα να προστατεύει την ιδιωτικότητα τους

Από τις λύσεις που προτάθηκαν αυτή που κερδίζει έδαφος και προχωράει σε υλοποιήσεις είναι η εφαρμογή της μηχανικής μάθησης. Τι είναι όμως η μηχανική μάθηση (machine learning); Είναι μία κατηγορία της επιστήμης των υπολογιστών που διερευνά τη μελέτη και την κατασκευή αλγορίθμων που μπορούν να μαθαίνουν από τα δεδομένα που έχουν αποθηκεύσει και να κάνουν προβλέψεις ή να λαμβάνουν αποφάσεις σχετικά με αυτά. Επίσης καλό είναι να διασαφηνισθεί ότι μηχανική μάθηση και τεχνητή νοημοσύνη (Artificial Intelligence – AI) δεν είναι το ίδιο πράγμα, αλλά η πρώτη αποτελεί ένα υποσύνολο της δεύτερης. Παρόλα αυτά πολλές φορές χρησιμοποιούνται έχοντας την ίδια σημασία.

True Images / Alamy

Μέσω της μηχανικής μάθησης επιχειρείται ο εντοπισμός των γλωσσικών προτύπων που χρησιμοποιούν οι θύτες και τα θύματά τους και η ανάπτυξη κανόνων για την αυτόματη ανίχνευση περιεχομένου εκφοβισμού στον κυβερνοχώρο.

Ένα παράδειγμα αποτελεί η εταιρεία IBM όπου με την τεχνολογία τεχνητής νοημοσύνης Watson που έχει αναπτύξει είναι σε θέση να κατανοήσει και να κατηγοριοποιήσει τα άτομα που στέλνουν και λαμβάνουν μηνύματα. Οι αλγόριθμοι ακολούθως εντοπίζουν περιπτώσεις ή πιθανές περιπτώσεις διαδικτυακού εκφοβισμού. Εάν εντοπιστεί μια απειλή, ενεργοποιείται μια ειδοποίηση που αποστέλλεται στους γονείς που έχουν επιλέξει να δώσουν πρόσβαση στο περιεχόμενο της επικοινωνίας των παιδιών τους στην συγκεκριμένη τεχνολογία.

Το περιεχόμενο της ειδοποίησης έχει στιγμιότυπα οθόνης που περιλαμβάνουν τις ημερομηνίες και τις ώρες που την ενεργοποίησαν. Εάν οι γονείς συμφωνούν ότι πρόκειται για περίπτωση εκφοβισμού στον κυβερνοχώρο, οδηγούνται σε δωρεάν ιστοσελίδες που θα τους βοηθήσουν να κατανοήσουν πώς πρέπει να ανταποκριθούν.

Μία αντίστοιχη περίπτωση αποτελεί το Πρόγραμμα CREEP (Cyberbulling Effects Prevention) το οποίο στοχεύει στον εντοπισμό και την πρόληψη των πιθανών αρνητικών επιπτώσεων του διαδικτυακού εκφοβισμού στους νέους. Κάνει χρήση προηγμένων τεχνολογιών για την έγκαιρη ανίχνευση των φαινομένων του διαδικτυακού εκφοβισμού μέσω της παρακολούθησης των κοινωνικών μέσων ενημέρωσης. Ακολούθως είναι σε θέση να παρέχει συμβουλές πρόληψης και εξατομικευμένες συστάσεις προσαρμοσμένες στις ανάγκες των εφήβων μέσω ενός συστήματος εικονικής καθοδήγησης (chatbot). Το πρόγραμμα ξεκίνησε τον Ιανουάριο και θα διαρκέσει μέχρι τον Δεκέμβριο του 2019.

Κατά την διάρκεια του προγράμματος κάθε χρήστης αντιπροσωπεύεται ως ένας κόμβος σε ένα γράφημα και οι ανταλλαγές κειμένου μεταξύ διαφορετικών χρηστών είναι οι άκρες που συνδέουν τους χρήστες μεταξύ τους. Οι μέθοδοι μηχανικής μάθησης επεξεργάζονται τα μηνύματα για να προσδιορίσουν εάν περιέχουν επιθετικό περιεχόμενο.

 

Η απεικόνιση των χρηστών και οι επικοινωνίες μεταξύ τους στο πρόγραμμα creep – CNRS-NEWS

 

Αυτά τα εργαλεία ανιχνεύουν προσβλητικές λέξεις, λεκτικές επιθέσεις και άλλους τοξικούς όρους. Παρόλα αυτά, ενώ η επικοινωνία στο διαδίκτυο δεν είναι πάντα ήπια, κάθε αγενής έκφραση δεν αποτελεί παράδειγμα διαδικτυακού εκφοβισμού. Μία πρόκληση της τεχνολογίας είναι να εντοπίζει τις πραγματικές περιπτώσεις, δηλαδή τις επαναλαμβανόμενες επιθέσεις από έναν χρήστη ή ένα σύνολο χρηστών προς τον ίδιο στόχο, από μια απλή περίπτωση αγενούς συμπεριφοράς. Η παραπάνω διαπίστωση δηλαδή ότι η μηχανική μάθηση παράγει ψευδή θετικά (false positives) αποτελεί ένα γενικότερο πρόβλημα της μηχανικής μάθησης και της ένδειξης ότι αποτελεί μία πρώιμη τεχνολογία που έχει τεράστια περιθώρια εξέλιξης.

Τέλος, ακόμη και οι εφαρμογές με εκατομμύρια χρήστες όπως το Instagram χρησιμοποιεί πλέον αναγνώριση κειμένου και εικόνας με τεχνολογία τεχνητής νοημοσύνης για την ανίχνευση του εκφοβισμού σε φωτογραφίες, βίντεο και λεζάντες. Ενώ η εταιρεία χρησιμοποιεί το “φίλτρο εκφοβισμού” για να κρύψει τα τοξικά σχόλια από το 2017, η χρήση μηχανικής μάθησης ξεκίνησε πρόσφατα για την ανίχνευση επιθέσεων στην εμφάνιση ή τον χαρακτήρα των χρηστών όπως σε φωτογραφίες με διαχωρισμό οθόνης (split-screen) και τις λεζάντες τους.

Μπορεί η σύγχρονη τεχνολογία να βοηθήσει τον θύτη;

Όποιος μπορεί κάποιος εύκολα να φανταστεί η τεχνολογία της μηχανικής μάθησης αλλά και γενικότερα της τεχνητής νοημοσύνης μπορεί να χρησιμοποιηθεί και από αυτούς που επιθυμούν να εκτελέσουν διαδικτυακό εκφοβισμό.

Οι καθημερινές εξελίξεις στη ρομποτική και την τεχνητή νοημοσύνη φέρνουν μαζί τους μια αυξανόμενη απειλή διαδικτυακών επιθέσεων από μη ανθρώπινες οντότητες, ενώ φόβο προκαλεί το ενδεχόμενο συνεργασίας ενός ανθρώπου με ρομπότ για την μαζική επίθεση σε έναν στόχο.

Μια χαρακτηριστική περίπτωση του λεγόμενου AI-gone-rogue, δηλαδή της κακόβουλης χρήσης της τεχνητής νοημοσύνης είναι η εφαρμογή SimSimi. Η συγκεκριμένη πολύ δημοφιλής εφαρμογή διατίθεται στο App Store και είναι ένα αυτοματοποιημένο chatbot με το οποίο μπορούν να μιλήσουν οι χρήστες, ενώ άλλοι χρήστες μπορούν να το προγραμματίσουν ανώνυμα για να δίνει συγκεκριμένες απαντήσεις σε μια δεδομένη φράση.

Την δυνατότητα αυτή εκμεταλλευτήκαν ορισμένοι για να εκτελέσουν διαδικτυακό εκφοβισμό στον κυβερνοχώρο υποβοηθούμενοι και από τις απαντήσεις που έδινε η εφαρμογή.

Όπως αναφέρθηκε και παραπάνω οι συγκεκριμένες τεχνολογίες είναι σε σχετικά πρώιμο στάδιο με αποτέλεσμα ένας έμπειρος χρήστης να μπορεί να διακρίνει εάν συνομιλεί με έναν άνθρωπο ή ένα ρομπότ.

Πως καταλαβαίνουμε εάν συνομιλούμε με κάποιο ρομπότ; Γενικά τα ρομπότ κάνουν πάρα πολλές δημοσιεύσεις. Αν κάποιος μεταβεί στο προφίλ του λογαριασμού του και αναζητήσει πόσες δημοσιεύσεις έχει κάνει σε σχέση με το χρονικό διάστημα που είναι ενεργός ο λογαριασμός, θα δει ένα πολύ μεγάλο ποσοστό δημοσιεύσεων. Επίσης τα ρομπότ είναι αμείλικτα, δηλαδή ενδέχεται να εκτελούν συνεχώς απόπειρες διαδικτυακού εκφοβισμού, περισσότερο ακόμη και από τους ανθρώπους. Τέλος, ένα προφίλ ενός ρομπότ ξεκινάει από τις πρώτες δημοσιεύσεις να επιτίθεται, δηλαδή, δεν θα συμπεριφερθεί όπως ένας άνθρωπος ο οποίος θα συστηθεί και θα μιλήσει με λίγα λόγια για τον εαυτό του.

DAVID KOVALUK | ST. LOUIS PUBLIC RADIO

Συμπεράσματα

Η τεχνολογία σήμερα προσφέρει εκπληκτικές δυνατότητες στους ανθρώπους. Όπως συμβαίνει μαζί με την ισχύ έρχεται και η ευθύνη. Μερικοί άνθρωποι χρησιμοποιούν αυτήν την τεχνολογία με σκοπό να προκαλέσουν κακό σε άλλους μέσω του διαδικτυακού εκφοβισμού.

Η μηχανική μάθηση είναι η τεχνολογία που έχει προσφέρει πολύ ικανοποιητικά αποτελέσματα στην αντιμετώπιση αυτού του φαινομένου. Τα επόμενα χρόνια εκτιμάται ότι η χρήση της θα είναι εκτεταμένη με σκοπό τον γρήγορο εντοπισμό και καταπολέμηση αυτού του κοινωνικού φαινομένου.

Η άλλη όψη του νομίσματος αυτής της τεχνολογίας είναι ότι μπορεί να υποβοηθήσει στην εκτέλεση του διαδικτυακού εκφοβισμού, δηλαδή να χρησιμοποιηθεί κακόβουλα.

Η εκτίμηση είναι ότι όταν αυτές οι τεχνολογίες θα ωριμάσουν, η διάκριση μεταξύ ανθρώπινης και τεχνητής νοημοσύνης θα είναι πολύ δύσκολη με ότι συνεπάγεται αυτό. Οι χρήστες του διαδικτύου πρέπει να είναι ενημερωμένοι για τους κινδύνους και τις παγίδες που κρύβει η δραστηριότητα μας στο διαδίκτυο και ότι η αποτελεσματικότερη άμυνα είναι η σωστή ενημέρωση.