Γράφει η Ελένη Παπανδρέου, Κοινωνική Λειτουργός
Η Τεχνητή Νοημοσύνη αποτελεί ένα αντιφατικό πεδίο. Από τη μία, προσφέρει σημαντικές ευκαιρίες στον άνθρωπο και σηματοδοτεί σημεία διευκόλυνσης και εκσυγχρονισμού στην καθημερινότητα του. Από την άλλη, εγκυμονεί σημαντικούς κινδύνους τόσο για την ίδια την κοινωνία, όσο και για τα θεμελιώδη ανθρώπινα δικαιώματα, όπως είναι για παράδειγμα οι φυλετικές διακρίσεις (racial discrimination), διότι απειλούν τις θεμελιώδεις αρχές της ισότητας.
Συγκεκριμένα, η τεχνητή νοημοσύνη εμφανίζει προβλήματα φυλετικής προκατάληψης, καθώς δύσκολα βλέπει κάποιος μαύρα ρομπότ και οι προσωπικοί ψηφιακοί βοηθοί στις φορητές ηλεκτρονικές συσκευές αντιπροσωπεύουν μια λευκή φυλετική ταυτότητα, μιλώντας π.χ. με τα τυπικά αγγλικά της μεσοαστικής λευκής τάξης, καθώς, μέχρι στιγμής έχει αποκλειστεί η ιδέα να προστεθούν στο γλωσσικό «ρεπερτόριο» μαύρες διάλεκτοι. Ανάλογη «λευκή» εικόνα προκύπτει και από τις κάθε είδους αναζητήσεις για την τεχνητή νοημοσύνη στη Google και σε άλλες μηχανές αναζήτησης (εξώφυλλα και εικόνες σχετικών βιβλίων, εικονογραφήσεις σχετικών άρθρων κ.α.), ενώ έχουν εμφανιστεί προβλήματα ακόμα και σε τραπεζικές και χρηματοπιστωτικές υπηρεσίες, αλλά και προβλήματα στην αναγνώριση επίδοξων κλεφτών μέσω κάμερας ασφαλείας.
Σύμφωνα με το CNN Business, ένας αυξανόμενος αριθμός βρετανικών καταστημάτων χρησιμοποιούν σύστημα αναγνώρισης προσώπου, το οποίο τροφοδοτείται από τεχνητή νοημοσύνη με στόχο να εντοπίσουν επαναλαμβανόμενους κλέφτες. Ο Σάιμον Γκόρντον, ιδρυτής της βρετανικής εταιρείας παρακολούθησης Facewatch «ασφάλειας τύπου αεροδρομίου», ανέφερε στο CNN ότι η ζήτηση για το προϊόν του είχε αυξηθεί, διότι τα περιστατικά κλοπών και βίας στα καταστήματα έχουν αυξηθεί ραγδαία τα τελευταία χρόνια. Αυτό σημαίνει πως όταν ένας διευθυντής καταστήματος γνωρίζει ότι ένα αντικείμενο έχει κλαπεί, για παράδειγμα κατά την απογραφή του αποθέματός του, θα εξετάσει το υλικό που καταγράφηκε από τις κάμερες ασφαλείας του για να αναγνωρίσει τον κλέφτη.
Εν συνεχεία, ο διευθυντής θα συνδεθεί στο σύστημα του Facewatch, το οποίο θα έχει επίσης τραβήξει βίντεο με όλους τους πελάτες που μπήκαν στο κατάστημα εκείνη την ημέρα, για να βρει τον ύποπτο στα πλάνα της εταιρείας και να καταγράψει το περιστατικό. Έπειτα, εξετάζεται το περιστατικό, επιβεβαιώνεται ότι περιγράφει το ύποπτο έγκλημα και, στο τέλος, μεταδίδεται ζωντανά σύμφωνα με τον Γκόρντον. Επίσης, κάθε φορά που το ίδιο άτομο προσπαθεί να εισέλθει ξανά σε αυτό το κατάστημα, ο διαχειριστής θα λάβει μια ειδοποίηση στο τηλέφωνό του και μπορεί να ζητήσει από το άτομο να φύγει ή να τον παρακολουθεί στενά. Προτού σταλεί η ειδοποίηση, ένας από τους ανθρώπινους «υπερ-αναγνωριστές» του Facewatch ελέγχει ότι το πρόσωπο του υπόπτου ταιριάζει με ένα στη βάση δεδομένων των παραβατών της εταιρείας. Τα βιομετρικά του δεδομένα θα μπορούσαν επίσης να κοινοποιηθούν σε άλλα καταστήματα στην τοπική περιοχή που χρησιμοποιούν το σύστημα του Facewatch. Σύμφωνα με τον Γκόρντον υπάρχει πιθανότητα το σύστημα αυτό να οδηγηθεί σε εσφαλμένη ειδοποίηση του δράστη, με τις περιπτώσεις που οι “μη λευκοί” να αναγνωρίζονται ως οι παραβάτες να μην είναι λίγες.
Ωστόσο, ομάδες ανθρωπίνων δικαιωμάτων υποστηρίζουν ότι αυτό το είδος τεχνολογίας παραβιάζει το δικαίωμα των ανθρώπων στην ιδιωτική ζωή και συχνά κάνει λάθη. Η καταγραφή των βιομετρικών δεδομένων των αγοραστών ισοδυναμεί με το να τους ζητάμε να αφήσουν το δακτυλικό τους αποτύπωμα ή ακόμη και ένα δείγμα DNA για να μπουν στα καταστήματα. Εν αντιθέσει, ο Γκόρντον είναι πεπεισμένος ότι το σύστημα του Facewatch δεν έχει καμία προκατάληψη και τονίζει ότι υποστηρίζεται από ανθρώπινο προσωπικό που έχει εκπαιδευτεί στην αναγνώριση προσώπου.
Παρά ταύτα, το σύστημα αυτό κατάφερε να κερδίσει δημοτικότητα εν μέσω φόβων για το ενδεχόμενο ότι η τεχνητή νοημοσύνη θα αποσταθεροποιήσει την κοινωνία, είτε μέσω πρωτοφανών επιπέδων εισβολής στην ιδιωτική ζωή των ανθρώπων είτε με την αντικατάσταση εκατομμυρίων θέσεων εργασίας, μεταξύ μιας σειράς άλλων ανησυχιών.
Κλείνοντας, συνάγεται το συμπέρασμα πως η τεχνητή νοημοσύνη προάγει την κυρίαρχη φυλετική σκέψη της κοινωνίας μας, απόρροια της οποίας είναι να δημιουργείται μια μακρά παράδοση φυλετικών στερεότυπων. Αυτό, κατά βάθος, δικαιολογεί την αποικιοκρατία και τους διαχωρισμούς του παρελθόντος, συσχετίζοντάς τους με την ανώτερη νοημοσύνη και ισχύ των λευκών ανθρώπων. Ειδικότερα, η θεωρούμενη λευκότητα της τεχνητής νοημοσύνης επρόκειτο να καταστήσει πιο δύσκολο για τους ανθρώπους με οποιοδήποτε άλλο χρώμα δέρματος, να εξελιχτούν σ’ αυτό το πεδίο, αν δεν διευρυνθεί δημογραφικά η κοινότητα των προγραμματιστών. Αυτό θα έχει ως αποτέλεσμα η τεχνητή νοημοσύνη να επιδεινώσει τη φυλετική ανισότητα.
Πηγές:
https://edition.cnn.com/2023/07/15/business/facewatch-ai-facial-recognition-tech/index.html
https://www.kathimerini.gr/k/k-magazine/561368557/kai-oi-michanes-echoyn-prokatalipseis/
https://www.newsbeast.gr/technology/arthro/6527857/i-techniti-noimosyni-einai-ratsistiki
Η εθελοντική ομάδα του CSI Institute, αποτελούμενη από εξειδικευμένους επιστήμονες όπως, ψυχολόγους, εγκληματολόγους, κοινωνιολόγους καθώς και τεχνικούς δικτύων & πληροφορικής, είναι κοντά σας παρέχοντας πληροφορία, ενημέρωση και γνώση μέσα από ποικίλα θέματα αρθρογραφίας.