Νομικά Ζητήματα

Chatbot: Μία σύγχρονη παγίδα για τους σεξουαλικούς παραβάτες ως όπλο στο πλευρό των ανηλίκων

Γράφουν οι: Φ. Ανδρέου, Α. Κυτταρούδη, Α. Λαζαρίδου

Επιτομή
Η συνεχώς αυξανόμενη και διευρυμένη χρήση των chatbots, από την εξυπηρέτηση πελατών μέχρι την παροχή βοήθειας στην εξακρίβωση συμπτωμάτων COVID-19, εκφράζει μία νέα πτυχή στη σχέση Τεχνητής Νοημοσύνης και ανθρώπου. Τα chatbot στο χώρο της Δικαιοσύνης και της επιβολής του νόμου συγκεκριμένα, όμως, εμφανίζονται πλέον ως μία επιτακτική ανάγκη εξοικονόμησης χρόνου. Η παρούσα εργασία επικεντρώνεται στη μελέτη των chatbot ως τρόπου πρόληψης παραβατικών συμπεριφορών απέναντι σε ανηλίκους στο Διαδίκτυο, με το τεχνικό υπόβαθρο της Επεξεργασίας Φυσικής Γλώσσας και της Μηχανικής Μάθησης. Η επιτυχία αυτών των νεοεισαχθέντων μεθόδων πρόληψης εγκληματικών πράξεων τέτοιας βαρύτητας εξαρτάται έντονα από την ανθρώπινη επίβλεψη, την προστασία (ευαίσθητων) προσωπικών δεδομένων και τη γενικότερη σύμπνοια με τις σχετικές νομικές διατάξεις. Απαιτείται, βέβαια, περαιτέρω έρευνα αλλά και τεχνικές βελτιώσεις προκειμένου να εξασφαλιστεί ότι το αποτέλεσμα της κρίσης της Τεχνητής Νοημοσύνης είναι επαρκές και άξιο αστυνομικής παρέμβασης και νομικής αξιολόγησης.

1. Εισαγωγή
Η ταχεία ανάπτυξη και διάδοση του διαδικτύου, καθώς και οι αντίστοιχες εξελίξεις στις διαδικτυακές πλατφόρμες κοινωνικής δικτύωσης, πέρα από τα πλεονεκτήματα, έχουν δημιουργήσει και ορισμένα αρνητικά φαινόμενα. Συγκεκριμένα, στις προαναφερθείσες πλατφόρμες παρατηρείται ολοένα και περισσότερο η σεξουαλική παρενόχληση ανηλίκων καθώς και η διακίνηση πολυμέσων που περιλαμβάνουν τέτοιο περιεχόμενο. Η αντιμετώπιση των εγκλημάτων αυτών από τις υπηρεσίες επιβολής του νόμου αποτελεί ένα δύσκολο εγχείρημα που απαιτεί ανθρώπινο δυναμικό, πολύ χρόνο και λεπτομερή έρευνα. Για τους λόγους αυτούς, υποστηρίζεται ότι η τεχνολογία δύναται να αποτελέσει καταλυτικό αρωγό στην πάταξη των εγκληματικών αυτών ενεργειών. Γενικά τα ‘chatbots’ ή αλλιώς ‘chatterbots’ ή ‘conversational agents’ ή απλώς ‘bots’ , είναι λογισμικά τεχνητής νοημοσύνης, ή, πιο απλά, τεχνητές οντότητες συνομιλίας, τα οποία, μετερχόμενα ορισμένες σύγχρονες τεχνολογίες και μιμούμενα την ανθρώπινη συμπεριφορά, αλληλεπιδρούν στο διαδίκτυο με άλλα άτομα αποστέλλοντας αυτοματοποιημένα μηνύματα, είτε προφορικά είτε γραπτά. Συγκεκριμένα, υπάρχουν κάποια ‘chatbots’, που λειτουργούν προς υποστήριξη των διωκτικών αρχών, καθώς συνομιλούν σε διαδικτυακές κοινότητες και σε διαδικτυακούς ιστότοπους επικοινωνίας με υπόπτους, που πιθανώς παρενοχλούν σεξουαλικά ανήλικα άτομα ή διακινούν και αναζητούν πολυμέσα τα οποία περιέχουν σεξουαλική κακοποίηση παιδιών. Αναφορικά με αυτό το ζήτημα, δεν υπάρχει κάποια βιβλιογραφική επισκόπηση στον επιστημονικό χώρο. Για το λόγο αυτό, το παρόν επιστημονικό έργο αποτελεί προσπάθεια εντοπισμού και ανάλυσης των θεωριών που έχουν διατυπωθεί για τα ‘chatbots’ στη Δικαιοσύνη και συγκεκριμένα, αυτά τα οποία εντοπίζουν παραβατικές συμπεριφορές έναντι ανηλίκων

2. Αποτελέσματα της παρούσας έρευνας
Γίνεται φανερό πως διάφορες ανθρώπινες ανάγκες έχουν καταστήσει αναγκαία τη λύση των chatbot, για εξοικονόμηση χρόνου, ανθρώπινου δυναμικού και, γενικότερα, για τη βέλτιστη εξυπηρέτηση πελατών, πολιτών, θυμάτων και άλλων ομάδων ανθρώπων. Το ενδιαφέρον ζήτημα της χρήσης chatbot στο χώρο της επιβολής του νόμου και της καταστολής του εγκλήματος φαίνεται να είναι ήδη μία προβληματική που αναπτύσσεται ολοένα και περισσότερο σε θεωρητικό επίπεδο, ακριβώς λόγω της ελαχιστοποίησης του χρόνου έρευνας και της ακριβούς, μη μεροληπτικής εξαγωγής συμπερασμάτων. Στην πρόληψη παιδοφιλικών πράξεων στο Διαδίκτυο, ωστόσο, η πρακτική εφαρμογή αντίστοιχων chatbot δεν έχει αναπτυχθεί ακόμα σε βαθμό ικανοποιητικό, δηλαδή στο να οδηγήσει σε πραγματική δίωξη, δίκη και καταδίκη, ούτε και χρησιμοποιείται ως μηχανισμός πρόληψης και καταστολής του εγκλήματος από την Αστυνομία, Διεθνείς Οργανισμούς και Μυστικές Υπηρεσίες.

Η μελέτη των σχετικών με το θέμα μας άρθρων καταδεικνύει πως ο κοινός μηχανισμός πίσω από τις επιμέρους Τεχνητές Οντότητες Συνομιλίας (Artificial Conversational Entities) – chatbots, είναι ο ίδιος, δηλαδή αρχικά, η χρήση επεξεργαστών φυσικής γλώσσας για την καλύτερη δυνατή κατανόηση των προτιμήσεων του συνομιλητή και η διεξαγωγή της συζήτησης με ένα μοντέλο ερωτο-απαντήσεων. Το τελευταίο, στην περίπτωση του Negobot του Carlos Laorden, καινοτομεί και εφαρμόζει τις αρχές της θεωρίας των παιγνίων για να διαπιστώσει εάν ο συνομιλητής διαθέτει παιδοφιλικές τάσεις, αποτρέποντάς τον παράλληλα από το να εγκαταλείψει τη συζήτηση. Επιπλέον, οι τεχνολογίες της Μηχανικής Μάθησης (Machine Learning) και της Βαθιάς Μάθησης (Deep Learning) κρίνονται θεμελιώδεις για την αποτελεσματική λειτουργία των προσομοιωτικών αυτών chatbot, καθώς στο σύστημα εισάγονται πληροφορίες της κάθε συζήτησης, οι οποίες χρησιμοποιούνται στην πρόβλεψη και στη λήψη αποφάσεων στις επόμενες. Με άλλα λόγια, υπάρχει συνεχής τροφοδότηση που οδηγεί στην καλύτερη κατανόηση, αλληλεπίδραση και την πιο αξιόπιστη και ταχεία κρίση περί παιδοφιλίας ή μη του συνομιλητή.

Σχήμα 1: Η ανατομία ενός chatbot

 

Βασικές πηγές πληροφόρησής μας για chatbot που έχουν χρησιμοποιηθεί για τους ανωτέρω σκοπούς αποτέλεσαν το C3-Sex, το οποίο και θα αναλυθεί στο παράρτημα, το Bothook, το Negobot και το Sweetie 2.0. Σε αυτά, το chatbot παρουσιάζεται είτε ως ανήλικο άτομο, είτε ως ενήλικο πρόσωπο που ενδιαφέρεται να αποκτήσει υλικό παιδικής πορνογραφίας.

Επίσης, τα δύο πρώτα περιορίζονται στη συνομιλία, ενώ στο Sweetie 2.0 προβλέφθηκε και η δυνατότητα βιντεοσυνομιλίας. Βασικό κοινό τους σημείο, ωστόσο, είναι η χρήση δύο παράλληλων τμημάτων, του διαδραστικού και το αναλυτικού. Στο πρώτο συναντάμε έννοιες που αφορούν τον τρόπο λειτουργίας αυτών των chatbot, όπως interfaces αλληλεπίδρασης υπολογιστή-φυσικού προσώπου, knowledge-based συστήματα για τη λήψη αποφάσεων και generative models μηχανικής μάθησης για την πρόβλεψη των επόμενων λέξεων και φράσεων βάσει των δεδομένων που έχουν εισαχθεί. Στο αναλυτικό τμήμα, αξιολογείται ολόκληρη η συζήτηση με βάση τα λεγόμενα του φυσικού προσώπου και κατηγοριοποιούνται τα συναισθήματα και οι απόψεις που αυτό εξέφρασε.

Αναμφισβήτητα, τα chatbot με στόχο την πρόληψη εγκλημάτων που απειλούν το έννομο αγαθό της ανηλικότητας, της γενετήσιας ελευθερίας και αυτοδιάθεσης, παρουσιάζονται σε όλα τα άρθρα ως μία πρωτοποριακή ανάγκη της σύγχρονης πραγματικότητας. Τα πλεονεκτήματά τους εντοπίζονται στην ήδη αναφερθείσα εξοικονόμηση πόρων στις δυνάμεις επιβολής του νόμου, δηλαδή χρόνου και ανθρώπινου δυναμικού, καθώς και τον εντοπισμό παιδόφιλων, χωρίς την πραγματική ύπαρξη θυμάτων. Επιπλέον, η χρήση αυτοματοποιημένων συνομιλητών αναφέρεται ότι επιτρέπει την κάλυψη μεγαλύτερου εύρους του Διαδικτύου, συγκριτικά με τη χρήση φυσικών προσώπων που αδυνατούν να δράσουν ταυτόχρονα σε πολυάριθμες συζητήσεις. Η εισαγωγή δεδομένων από κάθε ξεχωριστή συζήτηση συνεισφέρει στην ολοένα και πιο ακριβή πρόβλεψη των λεγομένων στις επόμενες και η Τεχνητή Νοημοσύνη προσφέρει αντικειμενικά αποτελέσματα βασισμένα στη λογική, απαλλαγμένα από υποκειμενισμό και μεροληπτικές αντιλήψεις.

Από την άλλη πλευρά, τονίζονται σε όλα τα άρθρα που μελετήσαμε, συγκεκριμένα μειονεκτήματα στη χρήση των chatbot για τον εντοπισμό παιδοφιλικών συμπεριφορών στο Διαδίκτυο που αφορούν την κατανόηση και χρήση της γλώσσας, νομικά εμπόδια και την αδυναμία πλήρους αποτελεσματικότητας ελλείψει ανθρώπινης επίβλεψης. Όσον αφορά τη γλώσσα, σε αυτό το -ακόμα- πρώιμο στάδιο ανάπτυξής τους, τα chatbot χειρίζονται και κατανοούν τη γλώσσα με τρόπο απόλυτα λογικό, αποδίδοντας πάντοτε στις λέξεις το πραγματικό τους νόημα. Αυτό σημαίνει ότι αδυνατούν να κατανοήσουν τον σαρκασμό και τη μεταφορική έννοια λέξεων και φράσεων, όπως και να απαντήσουν στον αντίστοιχο τόνο, γεγονός που τα καθιστά ύποπτα και συνηγορεί στον τεχνητό τους χαρακτήρα στην αντίληψη του συνομιλητή τους. Δεύτερο μειονέκτημα, που συνιστά και τον κυριότερο λόγο για τον οποίο τέτοια chatbot δεν έχουν αποτελέσει ήδη συστηματοποιημένη μέθοδο που οδηγεί στη δίωξη και τη Δικαιοσύνη, αφορά στη νομοθεσία. Πιο συγκεκριμένα, τίθενται ερωτήματα, όπως το αν συνιστά πραγματικά έγκλημα πράξη που στρέφεται κατά εικονικού ανηλίκου, όταν δηλαδή δεν επαπειλείται πραγματικά κανένα έννομο αγαθό και κανένα φυσικό πρόσωπο. Επιπλέον, όμως, η επιμονή προς τη στροφή της συζήτησης στην παιδική πορνογραφία από την πλευρά του chabot, όπως χαρακτηριστικά συμβαίνει στο Negobot και στο Sweetie, έχει μεγάλες πιθανότητες να θεωρηθεί παγίδευση και, άρα, να αποκλείσει την ευθύνη του φυσικού προσώπου. Αυτό συμβαίνει καθώς θεωρείται ότι είναι στην πραγματικότητα το ίδιο το chatbot που κάνει την πρόταση για, επί παραδείγματι, ανταλλαγή παιδικού πορνογραφικού υλικού και πολλές φορές μάλιστα επιμένει έντονα, ώστε ο συνομιλητής να μην εγκαταλείψει τη συζήτηση. Τα προαναφερθέντα επιχειρήματα ακολουθήθηκαν στην περίπτωση του Sweetie, προκειμένου να μην συνεχιστεί η δίωξη και ο δικαστικός αγώνας κατά προσώπων που είχαν εμπλακεί σε σχετικές συζητήσεις μαζί του. Τέλος, στο παρόν σημείο εξέλιξης τουλάχιστον, δεν οδηγεί σε αποτελέσματα με πλήρες ποσοστό ακρίβειας μία κρίση του chabot για την ενοχή του συνομιλητή του, ακόμη και κάτω από τους μηχανισμούς της μηχανικής και βαθιάς μάθησης. Η ανθρώπινη, δηλαδή, επίβλεψη δεν μπορεί να αποφευχθεί τελείως, ώστε να μιλάμε για ένα εξ ολοκλήρου αυτοματοποιημένο σύστημα και μέθοδο πρόληψης του εγκλήματος.

3. Συμπεράσματα
3.1 Συμπεράσματα
Η ανάπτυξη και διάδοση των διαδικτυακών ιστοτόπων συνομιλίας έχει ως αποτέλεσμα τον πολλαπλασιασμό των φαινομένων σεξουαλικής παρενόχλησης ανηλίκων αλλά και διακίνησης πορνογραφικού υλικού με θύματα τους νεαρούς χρήστες. Η εμπεριστατωμένη και ενδελεχής έρευνα από τις διωκτικές αρχές απαιτεί ιδιαίτερα πολύ χρόνο και απασχόληση πολύ μεγάλου προσωπικού, δεδομένου του ότι προκειμένου να εντοπιστεί ένας δράστης σεξουαλικών αδικημάτων, προϋποτίθεται διαρκής συζήτηση και αλληλεπίδραση. Εννοείται, επίσης, πως πολλές προσπάθειες απόσπασης πληροφοριών δύνανται να αποβούν άκαρπες. Συνεπώς, για την υποστήριξη του εγχειρήματος αυτού αλλά και για την ταχεία και αποτελεσματική του πρόοδο έχει υποστηριχθεί η υιοθέτηση της σύγχρονης τεχνολογίας των ‘chatbots’. Η παρούσα βιβλιογραφική επισκόπηση έχει ως στόχο να χαρτογραφήσει την συγκεκριμένη επιστημονική περιοχή.

Από την ανάλυση και μελέτη των άρθρων αυτών προκύπτει πως το ‘chatbot’ αποτελεί λογισμικό τεχνητής νοημοσύνης, αποτελούμενο από συγκεκριμένες τεχνολογίες και μοντέλα, το οποίο αλληλεπιδρά με ανθρώπους σε διαδικτυακούς ιστοτόπους επικοινωνίας αποστέλλοντας αυτοματοποιημένα μηνύματα είτε γραπτά είτε προφορικά προκειμένου να εντοπίσει όχι μόνο άτομα που διακινούν ή ακόμα και επιθυμούν τη διακίνηση πορνογραφικού υλικού που αφορά ανηλίκους αλλά και άτομα που τους παρενοχλούν σεξουαλικά. Τα περισσότερα ‘chatbots’ που αναλύονται στα άρθρα αυτά παρουσιάζουν κοινή αρχιτεκτονική και ορισμένα κοινά χαρακτηριστικά. Η λογική στην οποία στηρίζονται είναι κοινή και αφορά στον εντοπισμό παραβατικών συμπεριφορών έναντι των ανηλίκων στο διαδίκτυο. Από τα κοινά θετικά στοιχεία, πολύ σημαντικό είναι το γεγονός ότι η εκτεταμένη χρήση τους από τις υπηρεσίες δίωξης ηλεκτρονικού εγκλήματος οδηγεί στην ταχύτερη και αποτελεσματικότερη έρευνα των παραπάνω συμπεριφορών, ενώ παράλληλα επιτυγχάνεται και η εξοικονόμηση πόρων.

Ωστόσο, από την επισκόπηση και χαρτογράφηση της συγκεκριμένης επιστημονικής περιοχής προέκυψαν κάποια ζητήματα σχετικά με τη λειτουργία των ‘chatbots’. Συγκεκριμένα, δημιουργούνται ορισμένα νομικά ζητήματα όσον αφορά την αξιοποίηση των αποδεικτικών μέσων από το δικαστήριο, καθώς και την ίδια τη στοιχειοθέτηση του εγκλήματος. Επιπλέον, δεν είναι ακόμα ιδιαίτερα αναπτυγμένο το μοντέλο αντίληψης των ανθρωπίνων συναισθημάτων πίσω από τις λέξεις. Τέλος, απαιτούνται θέσεις εργασίας για να ελέγχεται η δραστηριότητα των ‘chatbots’.

3.3 Ερευνητικά κενά
Με την ανάγνωση και ανάλυση των 7 επιστημονικών άρθρων που αφορούν τα ‘chatbots’ εντοπίστηκε η ύπαρξη ορισμένων ερευνητικών κενών. Συγκεκριμένα, ως προς το τεχνολογικό κομμάτι ναι μεν χάρη στην προηγμένη τεχνολογία της αναγνώρισης της ανθρώπινης γλώσσας (Natural Language Processing) το λογισμικό αυτό αντιλαμβάνεται το περιεχόμενο των μηνυμάτων και απαντάει σε αυτά, ωστόσο δεν έχει ακόμα αναπτυχθεί ιδιαίτερα ο τρόπος με τον οποίο αναγνωρίζει τα συναισθήματα και την υφιστάμενη ψυχική στάση πίσω από τα μηνύματα που λαμβάνει. Επιπλέον, δεν έχουν ακόμα αναπτυχθεί αντίστοιχα λογισμικά τεχνητής νοημοσύνης σε άλλες γλώσσες πέρα από τα αγγλικά και τα ισπανικά. Σχετικά με το νομικό κομμάτι, στις περισσότερες έννομες τάξεις, η συμπεριφορά του ‘chatbot’, η προτροπή δηλαδή, και παρότρυνση του εν δυνάμει παραβάτη να τελέσει παράνομες πράξεις αποτελεί στην ουσία παγίδευση, κάτι που γεννά ιδιαίτερα νομικά προβλήματα και εν τέλει δεν συμβάλλει στην κατάφαση της αξιόποινης πράξης. Επομένως, υπάρχει ένα σημαντικό ερευνητικό κενό ως προς τη χρήση και αξιοποίηση του λογισμικού αυτού τεχνητής νοημοσύνης με τρόπο που να είναι νομικά αποδεκτός .

3.4 Μελλοντική έρευνα
Με βάση τα υφιστάμενα ερευνητικά κενά, η περαιτέρω έρευνα θα πρέπει να εστιάσει στα εξής ζητήματα:
Στην ολοκληρωμένη ανάπτυξη ενός μοντέλου, το οποίο θα αντιλαμβάνεται τα συναισθήματα και τη ψυχολογική στάση του αποστολέα των μηνυμάτων βάσει της συνομιλίας.
Στην εξέλιξη των ‘chatbots’ προκειμένου να μπορούν να χρησιμοποιήσουν περισσότερες γλώσσες επικοινωνίας.
Στη διαφορετική μεταχείριση και αξιοποίηση της συγκεκριμένης αυτής τεχνολογίας με σύννομο τρόπο.

 

C3-Sex: Ένα Chatbot για τον εντοπισμό δραστών αδικημάτων σεξουαλικού περιεχόμενου.

Ζούμε σε μία εποχή όπου το διαδίκτυο έχει καταστεί μέσο τέλεσης εγκλημάτων. Λυπηρή είναι η διαπίστωση πως κύρια θέση λαμβάνουν αυτά της προσβολής της γενετήσιας ελευθερίας κι αξιοπρέπειας ανηλίκων. Στο προσκήνιο τίθεται, λοιπόν, η αντιμετώπιση του εν λόγω ζητήματος, λαμβάνοντας δράση πέραν από τον νομικό κόσμο, και ο κόσμος της πληροφορικής. Αναπτύχθηκε, λοιπόν, μία Τεχνητή Οντότητα Συνομιλίας(ACE), δηλαδή ένα chatbot, γνωστό ως C3-Sex, για τον εντοπισμό, μέσω της αλληλεπίδρασης με τους υπόπτους, παιδοφιλικών συμπεριφορών, εμφανιζόμενο το ίδιο, τόσο ως κάποιος που αναζητά ακατάλληλο περιεχόμενο με πρωταγωνιστές ανηλίκους όσο και ως κάποιος που διανέμει το ακατάλληλο υλικό.

Ένα Chatbot,ως λογισμικό, δεχόμενο εισόδους(δεδομένα), επεξεργαζόμενο αυτές(ανάλυση) και παράγοντας τελικά εξόδους(αποτελέσματα), προσομοιάζει στην λειτουργία του με ένα πληροφοριακό σύστημα, επομένως, χρήσιμη θα ήταν η ανάλυσή του με βάση τα πέντε σημεία-συνιστώσες των πληροφοριακών συστημάτων, όπως ακολουθεί παρακάτω:

Υλικός εξοπλισμός: Πρόκειται για τον ηλεκτρονικό εξοπλισμό, την τεχνολογική υποδομή που είναι απαραίτητη για την λειτουργία του τεχνητού συνομιλητή. Αρχικά, απαιτείται η σύνδεση στο διαδίκτυο κι επομένως είναι απαραίτητοι οι δρομολογητές δικτύου(routers). Ένας ηλεκτρονικός υπολογιστής, κινητό ή tablet από την πλευρά του χρήστη-υπόπτου, ώστε να συνδεθεί, αρχικά, στο chatroom της Omegle κι από εκεί να ξεκινήσει η συνομιλία με το Chatbot . Ένας server για να εγκατασταθεί το Chatbot, δηλαδή στην πιο απλή του μορφή ένας ηλεκτρονικός υπολογιστής, με κεντρική μονάδα επεξεργασίας(CPU), σκληρό δίσκο χωρητικότητας τουλάχιστον 2 GB και μνήμη RAM τουλάχιστον 8GB(Κάρτα γραφικών: όχι αναγκαία, αλλά συστήνεται η Nvidia GeForce GTX 950). Πιθανότατα να είναι εγκατεστημένο στο Cloud, οπότε τα δεδομένα θα είναι αποθηκευμένα σε απομακρυσμένους υπολογιστές. Σημειώνεται πως το συγκεκριμένο chatbot μπορεί να εγκατασταθεί και σε κινητές συσκευές android.

Λογισμικό: Πρόκειται για τα προγράμματα που χρησιμοποιεί. Αναγκαίο είναι το λογισμικό των Windows 7/8/10 ως λειτουργικό σύστημα, το Google Chrome, η Python 3.6.2 και η npm ή CUDA Toolkit 10.1, ενώ για να τεθεί σε λειτουργία απαιτείται ένα κανάλι διάδρασης, όπου θα διεξαχθεί η συζήτηση και η ανταλλαγή υλικού, δηλαδή πιο συγκεκριμένα το Omegle, το Snapchat ή το Telegram. Ακόμα, τόσο στο επίπεδο της αλληλεπίδρασης με τον ύποπτο(interactive module), όσο και στο επίπεδο της ανάλυσης των συλλεχθέντων από τη συζήτηση δεδομένων (analysis module), γίνεται χρήση τεσσάρων μοντέλων τεχνητής νοημοσύνης βασισμένων σε κατάλληλα προσαρμοσμένο λογισμικό, ανάλογο με τον σκοπό του chatbot(interactive module:retrieval-based model, generative model / analysis module:emotional classification model, opinion classification model).

Δεδομένα: Είναι αυτά που με την κατάλληλη επεξεργασία μας δίνουν στο τέλος τις πληροφορίες. Εν προκειμένω, μπορούμε να κάνουμε διάκριση μεταξύ των εκπαιδευτικών δεδομένων που εισάγονται στα μοντέλα τεχνητής νοημοσύνης, ώστε αυτά να εξυπηρετήσουν τον σκοπό του chatbot, και όσων παράγονται από την καθαυτή λειτουργία του chatbot.

  • Εκπαιδευτικά δεδομένα:
    Retrieval-based model: Εδώ, το Chatbot θα μπορεί να συνομιλεί με βάση τους κανόνες που έχουν εισαχθεί στη Γλώσσα Σήμανσης (AIML). Όταν η συζήτηση είναι εντός του επίμαχου θέματος της παιδοφιλίας και παιδικής πορνογραφίας, θα απαντάει με βάση την αντιστοιχία προς έναν κανόνα AIML, δίνοντας την εντύπωση πως πρόκειται για έναν πραγματικό συνομιλητή και όχι Chatbot.
    Generative model: Όταν η συζήτηση ξεφεύγει των ορίων της σεξουαλικής κακοποίησης παιδιών, με αποτέλεσμα το προηγούμενο μοντέλο τεχνητής νοημοσύνης να αδυνατεί να δώσει κατάλληλη απάντηση, δράση λαμβάνει το εν λόγω μοντέλο που έχει εκπαιδευθεί με βάση το σύνολο δεδομένων που είναι συγκεντρωμένα στο Cornell Movie Dialogs.
  • Emotional classification model: Μετά την λήξη της συζήτησης, το Chatbot αποθηκεύει τα δεδομένα και τα αναλύει με στόχο την σκιαγράφηση του προφίλ του υπόπτου. Το μοντέλο αυτό ταξινομεί, με τη βοήθεια της Μηχανής Διανυσματικής Υποστήριξης(SVM), τις απαντήσεις του σε έξι διαφορετικά συναισθήματα(θυμός, αποστροφή, φόβος, χαρά, λύπη κι έκπληξη), έχοντας εκπαιδευτεί πρώτα από το σύνολο των δεδομένων που βρίσκονται στην ονομαζόμενη SemEval dataset και εν προκειμένω αφορούν σε κεφαλίδες εφημερίδων που έχουν επισημανθεί με ένα από τα παραπάνω έξι συναισθήματα.
  • Opinion classification model: Αυτό το μοντέλο τεχνητής νοημοσύνης, συμπληρώνοντας το προηγούμενο, αντιλαμβάνεται την θετική ή αρνητική άποψη κάποιου πάνω σε ένα συγκεκριμένο θέμα, έχοντας έχει λάβει δεδομένα από κριτικές ταινιών εστιατορίων και άλλων προϊόντων που έχουν επισημανθεί ως θετικές ή αντίστοιχα αρνητικές.

Δεδομένα που παράγονται κατά τη λειτουργία του Chatbot:
Ως δεδομένα λαμβάνουμε την συζήτηση που διεξάγεται μεταξύ του Chatbot και του υπόπτου, αλλά και το παράνομο κι ακατάλληλο υλικό(εικόνες, βίντεο) που θα σταλεί.

Η συζήτηση αυτή θα αναλυθεί για να δημιουργηθεί το προφίλ του υπόπτου. Έτσι, θα σχηματιστούν νέα δεδομένα που θα αφορούν σε 25 χαρακτηριστικά(f1-f25), όπου θα κατηγοριοποιείται ο καθένας ανάλογα με το ενδιαφέρον του. Έπειτα τα δεδομένα αυτά θα αποθηκεύονται σε μία βάση δεδομένων, οπότε θα λαμβάνει χώρα μία περαιτέρω επεξεργασία και θα διαχωρίζονται οι ύποπτοι για παιδοφιλία ως αδιάφοροι, ενδιαφερόμενοι ή διεστραμμένοι, ανάλογα με τις μετρήσεις.

Διαδικασίες: Με τον όρο αυτό εννοούνται οι λειτουργίες που εκτελεί το Chatbot:
Συνομιλεί με ύποπτους παριστάνοντας ένα φυσικό πρόσωπο που είτε αποσκοπεί στην απόκτηση ακατάλληλου υλικού ανηλίκων είτε στην διανομή αυτού.

Κατά τη διάρκεια της συζήτησης, διατηρεί το περιεχόμενό της γύρω από το φλέγον ζήτημα της παιδικής πορνογραφίας ή της σεξουαλικής κακοποίησης ανηλίκων, δίνοντας τις ανάλογες κάθε φορά απαντήσεις, (Retrieval-based model) ή ακόμα κι όταν αυτή παρεκκλίνει, δεν προδίδεται και συνεχίζει να αποκρίνεται αναλόγως (Generative model).

Μετά το πέρας της συζήτησης, αναλύει τα δεδομένα, σχηματίζοντας το προφίλ του υπόπτου με βάση τα 25 χαρακτηριστικά και με τη βοήθεια των μοντέλων τεχνητής νοημοσύνης για την ταξινόμηση συναισθημάτων και γνώμης(Emotional classification model, Opinion classification model).

Αποθηκεύει τα δεδομένα αυτά σε μία βάση δεδομένων, ώστε να μπορούν να αναλυθούν περαιτέρω.
Καταλήγει με περαιτέρω επεξεργασία των μετρήσεων στην κατηγοριοποίηση του υπόπτου, ανάλογα με το πόσο ενδιαφέρεται στην διανομή υλικού κακοποίησης ανηλίκων, ως αδιάφορου, ενδιαφερόμενου ή διεστραμμένου.

Άνθρωποι: Tα φυσικά πρόσωπα που αλληλεπιδρούν με το chatbot: ο συνομιλητής-ύποπτος, οι προγραμματιστές που υλοποίησαν την ιδέα, όσοι εισήγαγαν τα δεδομένα στο λογισμικό του chatbot(πχ τους κανόνες της γλώσσας σήμανσης), οι τεχνικοί που επιμελούνται τα ανακύπτοντα προβλήματα στην λειτουργία του chatbot, αλλά και όσοι μελλοντικά θα λάβουν τα δεδομένα που παράγει τελικά το chatbot ώστε να επιβληθεί η δικαιοσύνη.

 

Βιβλιογραφία
Rodríguez, J.I.; Durán, S.R.; Díaz-López, D.; Pastor-Galindo, J.; Mármol, F.G. C3-Sex: A Conversational Agent to Detect Online Sex Offenders. Electronics 2020, 9, 1779. https://doi.org/10.3390/electronics9111779

Zambrano, P., Sanchez, M., Torres, J., & Fuertes, W. (2017). BotHook: An option against cyberpedophilia. Paper presented at the 2017 1st Cyber Security in Networking Conference, CSNet 2017, , 2017-January 1-3. doi:10.1109/CSNET.2017.8241994 Retrieved from https://ieeexplore.ieee.org/document/8241994

Veli AÇAR, K., (2017). Webcam Child Prostitution: An Exploration of Current and Futuristic Methods of Detection. [online] Cybercrimejournal.com. Available at: http://www.cybercrimejournal.com/Kemalvol11issue1IJCC2017.pdf

Herrero, Á., Snášel, V., Abraham, A., Zelinka, I., Baruque, B., Quintián, H., … Corchado, E. (Eds.). (2013). International Joint Conference CISIS’12-ICEUTE´12-SOCO´12 Special Sessions. Advances in Intelligent Systems and Computing. doi:10.1007/978-3-642-33018-6

Callejas-Rodríguez Á., Villatoro-Tello E., Meza I., Ramírez-de-la-Rosa G. (2016) From Dialogue Corpora to Dialogue Systems: Generating a Chatbot with Teenager Personality for Preventing Cyber-Pedophilia. In: Sojka P., Horák A., Kopeček I., Pala K. (eds) Text, Speech, and Dialogue. TSD 2016. Lecture Notes in Computer Science, vol 9924. Springer, Cham. https://doi.org/10.1007/978-3-319-45510-5_61

The Anh Han, Cedric Perret, Simon T. Powers, When to (or not to) trust intelligent machines: Insights from an evolutionary game theory analysis of trust in repeated games, Cognitive Systems Research (2021), ISSN 1389-0417, https://doi.org/10.1016/j.cogsys.2021.02.003 (https://www.sciencedirect.com/science/article/pii/S138904172100022X)

Shubhashri G, Unnamalai N, and Kamalika G. 2018. LAWBO: a smart lawyer chatbot. In Proceedings of the ACM India Joint International Conference on Data Science and Management of Data (CoDS-COMAD ’18). Association for Computing Machinery, New York, NY, USA, 348–351. DOI: https://doi.org/10.1145/3152494.3167988

http://egov.dai.uom.gr/moodle/pluginfile.php/7012/mod_page/content/8/Webster%20and%20Watson%202002.pdf – Webster & Watson.

http://egov.dai.uom.gr/moodle/pluginfile.php/6325/mod_label/intro/Moher%202009.pdf- PRISMA Statement.

 

Πηγή:

https://ejournals.lib.auth.gr/infolawj/article/view/8457