Κοινωνία, Νομικά Ζητήματα, Παιδιά

Child Sexual Abuse Regulation: Η προβληματική της αναλογικότητας

Γράφει η Τατιάνα Κυτταρούδη, Δικηγόρος DPO

Η ιστορία της Πρότασης Κανονισμού της Ευρωπαϊκής Επιτροπής «για τη θέσπιση κανόνων με σκοπό την πρόληψη και την καταπολέμηση της σεξουαλικής κακοποίησης παιδιών», περισσότερη γνωστή ως Child Sexual Abuse Regulation/Child Sexual Abuse Material (CSAR/CSAM), ξεκινά τον Μάιο του 2022. Η Πρόταση ήταν το αποτέλεσμα πολυετών και ολοένα αυξανόμενων συζητήσεων σχετικά με τη βία κατά των ανηλίκων, η οποία πλέον εκφραζόταν και στο χώρο του Διαδικτύου ποικιλοτρόπως και σε διάφορα μέσα, εξ ου και η επιτακτική ανάγκη ρυθμίσεων. Η πορεία που οδήγησε στη νομοθετική πρωτοβουλία είχε πολλές στάσεις και αφορμές: Blue Whale Challenge1, η παραβατική χρήση του Roblox (που οδήγησε στην συμπερίληψή του στη Λίστα του National Center on Sexual Exploitation ως «mainstream contributor to sexual exploitation» για το 20232), αλλά και διάφορα chatbot που, μέσω μοντέλων Επεξεργασίας Φυσικής Γλώσσας, Μηχανικής Μάθησης κ.ά., στόχευσαν στον εντοπισμό παραβατικής σεξουαλικά συμπεριφοράς απέναντι σε ανηλίκους (βλ. ενδεικτικά Negobot, C3-Sex, Sweetie 2.0)3. Στο πλαίσιο, λοιπόν, της Στρατηγικής της Ευρωπαϊκής Ένωσης για το 2020-2025, το CSAR πρότεινε μία ολιστική αντιμετώπιση της διαδικτυακής βίας και της κακομεταχείρισης ανηλίκων, αναθεωρώντας και εκσυγχρονίζοντας το έως τώρα υφιστάμενο πλαίσιο, το οποίο στηρίζεται σε προσωρινή παρέκκλιση από την Οδηγία ePrivacy, με ημερομηνία λήξης τον Αύγουστο του 2024.

Για τον σκοπό και το περιεχόμενο της Πρότασης Κανονισμού έχουν γραφτεί πολλά και μία επανάληψή τους δεν θα προσέφερε κάτι πολύτιμο στην ήδη εξαντλητική συζήτηση. Αυτό που θα είχε ενδιαφέρον, ωστόσο, είναι μια νομική εξέταση των αμφιβολιών που έχουν εκφραστεί σχετικά με τις προβληματικές προβλέψεις της. Συγκεκριμένα, το CSAR τιτλοφορείται ως το «τέλος της endtoend κρυπτογράφησης», ενώ παράλληλα είναι αμφισβητήσιμο εάν η πλάστιγγα θα πρέπει να γέρνει κατά του δικαιώματος της ιδιωτικής ζωής, προστασίας προσωπικών δεδομένων και ελευθερίας της έκφρασης στη στάθμισή του με τη γενετήσια ελευθερία, εφόσον οι προβλέψεις του στηρίζονται σε πιθανολογήσεις με σημαντικά ποσοστά σφαλμάτων, γεννώντας με αυτόν τον τρόπο και ερωτήματα αναλογικότητας.

Συγκεκριμένα, το ζήτημα της αναλογικότητας έχει αποτελέσει βασικό πυλώνα αντιδράσεων κατά της Πρότασης, καθώς τα προβλεπόμενα μέτρα εντοπισμού υλικού σεξουαλικής κακοποίησης ανηλίκων (CSAM) και διάδοσής του θεωρούνται δυσανάλογα παρεμβατικά. Κι αυτό γιατί επιτρέπουν γενικευμένη πρόσβαση σε όλο το εύρος του περιεχομένου που ανταλλάσσεται σε μία ηλεκτρονική επικοινωνία, με σκοπό, ιδανικά, να προληφθεί, άλλως να κατασταλεί πριν περαιτέρω διαδοθεί, το κοινοποιημένο CSAM. Ωστόσο, η πρόσβαση αυτή, καθώς και οι εντολές εντοπισμού διαδικτυακού CSAM των αρμόδιων Αρχών προς τους παρόχους υπηρεσιών φιλοξενίας/διαπροσωπικών επικοινωνιών (TikTok, Snapchat κλπ.) στηρίζονται σε πιθανολόγηση. Πρόκειται για μία πιθανολόγηση πραγματικά αριθμητική, ανταποκρινόμενη σε συγκεκριμένα νούμερα και ποσοστά σφαλμάτων. Για παράδειγμα, στις περιπτώσεις εντοπισμού νέου υλικού CSAM, όπου χρησιμοποιούνται αλγόριθμοι ταξινόμησης και εργαλεία Τεχνητής Νοημοσύνης (ΤΝ), ναι μεν το ποσοστό ακρίβειας των τεχνολογιών αυτών έχει προσδιοριστεί στο 99,9%, ωστόσο δύνανται να εντοπίσουν μόνο το 80% του συνολικού CSAM στο σχετικό σύνολο δεδομένων. Αντίστοιχα, στις περιπτώσεις εντοπισμού grooming ανηλίκων (δηλ. διαδικτυακής διαδικασίας προσεταιρισμού και αποπλάνησης), όπου βασική μέθοδο αποτελεί η αναγνώριση μοτίβων, το ποσοστό ακριβείας ορίζεται στο 88%, άρα 12 από τις 100 επισημασμένες συνομιλίες μπορούν να αποκλειστούν τελείως κατόπιν ελέγχου4.

Τα παραπάνω εύλογα δημιουργούν τα εξής ερωτήματα: πού τίθεται το αριθμητικό όριο και ποιο είναι εκείνο το ποσοστό, ώστε η πιθανολόγηση να είναι ικανή να γύρει τη ζυγαριά υπέρ της παρεμβατικότητας και της ενεργοποίησης των μηχανισμών της Πρότασης; Είναι ζήτημα μαθηματικό, όπου ενός ποσοστού και άνω η παρέμβαση στην ιδιωτική ζωή, τα προσωπικά δεδομένα και την ελευθερία έκφρασης κρίνεται δικαιολογημένη, ή η πιθανολόγηση γενικότερα δεν συνιστά επαρκή συνθήκη για κάτι που καταλήγει να είναι μία γενικευμένη παρακολούθηση της επικοινωνίας; Δεν είναι άλλωστε τα ποσοστά σφαλμάτων έμφυτα παντού, σε κάθε αξιολογική ή δικανική κρίση, σε κάθε επιλογή;

Ερωτήματα όπως αυτά ενδεχομένως να ταλανίζουν τη σκέψη αρκετών, ωστόσο η νομική απάντηση δίνεται με τη διενέργεια ελέγχου αναλογικότητας των προτεινόμενων μέτρων, έναν έλεγχο που ήδη έχει γίνει και σχολιαστεί από το Ευρωπαϊκό Συμβούλιο Προστασίας Δεδομένων (ΕΣΠΔ) και τον Ευρωπαίο Επόπτη Προστασίας Δεδομένων (ΕΕΠΔ) και ο οποίος καταλήγει σε μία εν γένει αρνητική αξιολόγηση της Πρότασης Κανονισμού. Η αρχή της αναλογικότητας συνιστά τον «περιορισμό των περιορισμών» των δικαιωμάτων, δηλαδή οριοθετεί τους περιορισμούς που τίθενται επί της άσκησης ατομικών και κοινωνικών δικαιωμάτων. Σύντομα, ανάλογα με τα τρία είδη εντολών εντοπισμού CSAM που δύναται να εκδοθούν (εντολές εντοπισμού γνωστού, νέου CSAM και grooming), χρησιμοποιούνται και διαφορετικές τεχνολογίες με το αντίστοιχα διαφορετικό επίπεδο παρεμβατικότητας ως συνέπεια.

Με σκοπό την πρόληψη και την καταστολή του διαδικτυακού προσεταιρισμού και της σεξουαλικής κακοποίησης ανηλίκων και της διάδοσης του παραγόμενου υλικού, εξετάζεται το κατά πόσο πρόσφορο/κατάλληλο είναι το μέτρο της γενικευμένης πρόσβασης στην ηλεκτρονική επικοινωνία (έλεγχος προσφορότητας). Εδώ, υπογραμμίζεται τόσο από το Ευρωπαϊκό Κοινοβούλιο, όσο και από οργανώσεις για την προστασία ψηφιακών δικαιωμάτων, το ενδεχόμενο να θίγεται καθ’ αυτόν τον τρόπο ο πυρήνας των άρθρων 7 και 8 του Χάρτη Θεμελιωδών Δικαιωμάτων περί σεβασμού της ιδιωτικής/οικογενειακής ζωής και της προστασίας δεδομένων προσωπικού χαρακτήρα. Περιορισμοί επί της απόλαυσης θεμελιωδών δικαιωμάτων είναι επιτρεπτοί μόνο εφόσον εξυπηρετούν σκοπό γενικού ενδιαφέροντος, όπως αναγνωρίζεται από την Ε.Ε., ή προσβλέπουν στην προστασία δικαιωμάτων ή/και ελευθεριών τρίτων και, φυσικά, εφόσον πληρούν και τα τρία στάδια του ελέγχου αναλογικότητας και τις προϋποθέσεις τους. Εν προκειμένω, παρά το ότι τα μέτρα πρόσβασης και εντοπισμού ηλεκτρονικών συνομιλιών φαίνονται κατάλληλα να εξυπηρετήσουν τον επιδιωκόμενο σκοπό, τα κριτήρια ενεργοποίησης των μηχανισμών τους επιδέχονται υποκειμενικής ερμηνείας, καθώς είναι ελλιπή και γενικόλογα (βλ. χαρακτηριστικά «τον τρόπο με τον οποίο οι χρήστες χρησιμοποιούν την υπηρεσία και τον αντίκτυπό του στον εν λόγω κίνδυνο5». Στο επόμενο επίπεδο, εξετάζοντας εάν τα προβλεπόμενα μέτρα είναι τα λιγότερο επαχθή από σκοπιά έντασης και διάρκειας (στην κρινόμενη περίπτωση, από σκοπιά παρεμβατικότητας), σε σχέση με τα ήδη υπάρχοντα και εξίσου αποτελεσματικά (έλεγχος αναγκαιότητας), η Μελέτη του Ευρωπαϊκού Κοινοβουλίου αναγνωρίζει ότι, επί του παρόντος, δεν υπάρχουν τεχνολογικές λύσεις που να επιτρέπουν τον εντοπισμό CSAM χωρίς να οδηγούν σε μεγάλο ποσοστό σφαλμάτων, επηρεάζοντας έτσι όλες τις επικοινωνίες, τα μηνύματα, τα αρχεία και τα δεδομένα που ανταλλάσσονται στην επίμαχη πλατφόρμα6. Τέλος, στο δυσκολότερο επίπεδο, αυτό της αναλογικότητας με τη στενή έννοια, πραγματοποιείται στάθμιση κόστους-οφέλους (έλεγχος stricto sensu αναλογικότητας). Από τη μία πλευρά, το κόστος της υποχώρησης για τα δικαιώματα ελευθερίας της έκφρασης και προστασίας προσωπικών δεδομένων και, από την άλλη, το συμφέρον και τα δικαιώματα των ανηλίκων επί της γενετήσιας ελευθερίας τους και του συνταγματικά προστατευόμενου εννόμου αγαθού της ανηλικότητας (ά. 21 παρ. 1 Σ.). Υπερτερούν στον CSAR τα τελευταία, δικαιολογώντας τον περιορισμό των πρώτων δικαιωμάτων ή είναι τα προβλεπόμενα μέτρα επαχθέστερα από το αναγκαίο για την επίτευξη του στόχου; Σε αυτά τα ερωτήματα η απάντηση διαφαίνεται αρνητική, όπως αναλύθηκε παραπάνω τόσο στο παρόν κείμενο, όσο και στη σχετική συζήτηση εντός και εκτός των θεσμών της Ένωσης.

Καθιστώντας πρακτικά και τεχνικά ανεφάρμοστη την κρυπτογράφηση, μία εκ των βασικότερων μεθόδων προστασίας των προσωπικών δεδομένων (ισόβαθμη, πιθανότατα, με την απαγόρευση μη εξουσιοδοτημένης πρόσβασης, αξίζει να σημειωθεί), η Πρόταση δικαιολογημένα έχει δεχθεί σωρεία αντιδράσεων. Αδυνατώντας να αποδείξει την αναλογικότητα των προτεινόμενων μηχανισμών της για την επίτευξη του, κατά τα άλλα εξαιρετικά σημαντικού, σκοπού που επιδιώκει, ενώ παράλληλα πλανώνται κατηγορίες περί παρασκηνιακής πολιτικής μεταξύ της Επιτρόπου Εσωτερικών Υποθέσεων της Ένωσης και ΜΚΟ που δρουν περισσότερο ως εταιρείες τεχνολογίας με τα δικά τους συμφέροντα7, η Πρόταση είναι εν γένει ένα ιδιαιτέρως προβληματικό νομοθέτημα. Εξ ου και η τελευταία εξέλιξη του Νοεμβρίου 2023, όταν η Επιτροπή Πολιτικών Ελευθεριών, Δικαιοσύνης και Εσωτερικών Υποθέσεων του Ευρωπαϊκού Κοινοβουλίου ψήφισε κατά της γενικευμένης πρόσβασης σε ηλεκτρονικές επικοινωνίες και υπέρ της στοχευμένης παρακολούθησης σεσημασμένων ή ευλόγως υπόπτων προσώπων, ενώ Μέλη του Ευρωπαϊκού Κοινοβουλίου δήλωσαν και ψήφισαν υπέρ της προστασίας των κρυπτογραφημένων επικοινωνιών8. Σε αναμονή, λοιπόν, των επερχόμενων εξελίξεων και έχοντας πάντοτε κατά νου το δύσκολο έργο της στάθμισης δικαιωμάτων, ιδιαιτέρως μέσω της χρήσης της συνεχώς εξελισσόμενης τεχνολογίας και της αντίστοιχης δυσκολίας αφομοίωσής της.

  1. Βλ. περαιτέρω Κ. Ιωάννου, Μπλε φάλαινα: To παιχνίδι αυτοκτονίας επέστρεψε ως πρόκληση στα μέσα δικτύωσης (2021), διαθέσιμο στο: https://www.csii.gr/mple-falaina-to-paichnidi-aytoktonias-ep/ 
  2. ROBLOX-MAINSTREAM CONTRIBUTORS TO SEXUAL EXPLOITATION (2023) NCOSE. Available at: https://endsexualexploitation.org/roblox/ (Accessed: 16 January 2024)
  3. Βλ. περαιτέρω Φ. Ανδρέου, Α. Κυτταρούδη, Α. Λαζαρίδου, Chatbot: Μία σύγχρονη παγίδα για τους σεξουαλικούς παραβάτες ως όπλο στο πλευρό των ανηλίκων (2021), διαθέσιμο στο: https://ejournals.lib.auth.gr/infolawj/article/view/8457/8128 
  4. ΕΣΠΔ-ΕΕΠΔ, Κοινή γνωμοδότηση 4/2022 σχετικά με την πρόταση κανονισμού του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου για τη θέσπιση κανόνων με σκοπό την πρόληψη και την καταπολέμηση της σεξουαλικής κακοποίησης παιδιών (2022), διαθέσιμο στο: https://edpb.europa.eu/system/files/2023-02/edpb_edps_jointopinion_202204_csam_el.pdf 
  5.  Ό.π.
  6.  EPRS, Proposal for a regulation laying down the rules to prevent and combat child sexual abuse-Complementary impact assessment (2023), διαθέσιμο στο: https://www.europarl.europa.eu/RegData/etudes/STUD/2023/740248/EPRS_STU(2023)740248_EN.pdf 
  7. Giacomo Zandonini, Apostolis Fotiadis and Luděk Stavinoha, Who Benefits?’ Inside the EU’s Fight over Scanning for Child Sex Content (2023), διαθέσιμο στο: https://balkaninsight.com/2023/09/25/who-benefits-inside-the-eus-fight-over-scanning-for-child-sex-content/ 
  8. EPP Group, Detect child abusers without mass scanning, διαθέσιμο στο: https://www.eppgroup.eu/newsroom/detect-child-abusers-without-mass-scanning