Διαδίκτυο, Τεχνολογία

H νέα λειτουργία της Apple σκανάρει φωτογραφίες για τον εντοπισμό υλικού παιδικής κακοποίησης

Κοινοποιήστε το άρθρο:

Επιμέλεια – μετάφραση Αγγελική Βουρλιωτάκη, φοιτήτρια ψυχολογίας

H Apple μέσω της εγκατάστασης ειδικού λογισμικού στα αμερικανικά iPhone και iPad επιχειρεί να αντιμετωπίσει περιστατικά παιδικής κακοποίησης. H λειτουργία, η οποία είναι πλέον διαθέσιμη στο λειτουργικό σύστημα iOS 15 και μελλοντικά και στο iPadOS 15, χρησιμοποιεί μία καινούρια τεχνολογία που ανέπτυξε η Apple, γνωστή ως “NeuralHash” η οποία θα μπορεί να εντοπίζει υλικό παιδικής σεξουαλικής κακοποίησης (CSAM). 

Πιο συγκεκριμένα, προτού αποθηκευτεί οποιαδήποτε φωτογραφία στο iCloud, θα περνάει από μια διαδικασία σάρωσης. Για λόγους ιδιωτικότητας, οι φωτογραφίες θα μετατρέπονται σε μία «ακολουθία ψηφίων» και θα συγκρίνονται με μία βάση δεδομένων γνωστών φωτογραφιών σεξουαλικής κακοποίησης παιδιών. Εφόσον οι εικόνες αποδειχθούν ύποπτες η Apple θα μπορεί να τις αναφέρει στο Εθνικό Κέντρο για τα Εξαφανισμένα και Υπό Εκμετάλλευση Παιδιά (NCMEC). 

Η Apple ανέπτυξε αυτό το λογισμικό, ανταποκρινόμενη στις απαιτήσεις των κυβερνήσεων και των οργανώσεων για την ασφάλεια των παιδιών που ζητούν περισσότερη συνεργασία στις έρευνες εγκλημάτων όπου αφορούν σε παιδική πορνογραφία. Ωστόσο, με την ενεργοποίηση της συγκεκριμένης λειτουργίας εγείρονται διάφορα ζητήματα ασφαλείας και ιδιωτικότητας. Μάλιστα, ειδικοί στην Κυβερνοασφάλεια υποστηρίζουν ότι  η συγκεκριμένη τεχνολογία θα μπορούσε να ανοίξει την “πίσω πόρτα” (backdoor) στην παρακολούθηση των προσωπικών ηλεκτρονικών συσκευών εκατομμυρίων ανθρώπων, αποκτώντας πρόσβαση στα προσωπικά τους δεδομένα. 

Το άλλο θέμα που τίθεται, είναι το ενδεχόμενο “λάθος συναγερμού”. Πιο συγκεκριμένα, από τη στιγμή που μία φωτογραφία θεωρηθεί ύποπτη, η Apple θα επιτρέπει την αποκρυπτογράφηση του υλικού και θα προβαίνει σε απενεργοποίηση των λογαριασμών που σχετίζονται με αυτή τη φωτογραφία. Ωστόσο, σε περίπτωση λάθους, η Apple θα έχει αποκτήσει πρόσβαση σε φωτογραφίες χρηστών, των οποίων ο λογαριασμός έχει χαρακτηριστεί λανθασμένα ως ύποπτος. Παρ’ όλα αυτά, η εταιρεία αντικρούει αυτό το επιχείρημα, υποστηρίζοντας ότι το λογισμικό αυτό διαθέτει πολύ υψηλό επίπεδο ακρίβειας και η πιθανότητα λάθους είναι μία στο ένα τρισεκατομμύριο. 

Η συγκεκριμένη λειτουργία αναπτύχθηκε στο πλαίσιο ενός συνόλου προγραμμάτων για την προστασία των ανηλίκων και αρχικά θα εφαρμοστεί μόνο σε Αμερικανικό έδαφος. Μελλοντικά,  θα μπορούσε να προσαρμοστεί για κάθε είδος φωτογραφιών ή κειμένου, ενημερώνοντας και για άλλα εγκλήματα, όπως δολοφονίες ή τρομοκρατικές επιθέσεις. 

Πηγή: 
Κοινοποιήστε το άρθρο:
The following two tabs change content below.

Volunteer Team

Η εθελοντική ομάδα του CSI Institute, αποτελούμενη από εξειδικευμένους επιστήμονες όπως, ψυχολόγους, εγκληματολόγους, κοινωνιολόγους καθώς και τεχνικούς δικτύων & πληροφορικής, είναι κοντά σας παρέχοντας πληροφορία, ενημέρωση και γνώση μέσα από ποικίλα θέματα αρθρογραφίας.