Διαδίκτυο, Τεχνολογία

Τεχνητή νοημοσύνη: πού βρισκόμαστε και πού μπορούμε να οδηγηθούμε

Γράφει η Μαριάννα Τζίμα, Ψυχολόγος

Η τεχνητή νοημοσύνη δεν αποτελεί πλέον την τεχνολογία του μέλλοντος. Είναι κομμάτι της καθημερινής πραγματικότητας και επηρεάζει κάθε τομέα ανθρώπινης δράσης και παραγωγής. Κατέχει πλέον θέση στις ροές των μέσων κοινωνικής δικτύωσης, σε σελίδες εξυπηρέτησης πελατών και σε ιστοτόπους που παρέχουν τη δυνατότητα συνομιλίας και συμβουλών, μεταμορφώνοντας τον τρόπο με τον οποίο οι χρήστες αλληλεπιδρούν με οργανισμούς, ηλεκτρονικά καταστήματα, τράπεζες ακόμα και με κυβερνήσεις.

Ωστόσο, παρά τις προσπάθειες των επιστημόνων να δημιουργήσουν μηχανές που να μπορούν να ανταγωνιστούν τον άνθρωπο στην ικανότητά του να σκέφτεται και να μετουσιώνει τις νέες πληροφορίες που λαμβάνει σε γνώση, τα συστήματα αυτά εξακολουθούν τουλάχιστον προς το παρόν να υπολείπονται αυτού του στόχου. Τα συστήματα τεχνητής νοημοσύνης αποτελούν ανθρώπινο δημιούργημα και μπορούν να παράγουν αποτελέσματα σύμφωνα με τον κώδικα που τα διέπει και των βάσεων δεδομένων που χρησιμοποιούνται για να τα “διδάξουν” το επιθυμητό από τους προγραμματιστές υλικό. 

Η τεχνητή νοημοσύνη, επομένως, μπορεί να έχει διττή φύση. Μπορεί να χρησιμοποιηθεί ευεργετικά για την ανάπτυξη βοηθητικών εργαλείων, μπορεί όμως και να αποτελέσει τον δίαυλο για την προώθηση κακόβουλων σκοπών των κατασκευαστών ή/και των χρηστών.

Ακολουθώντας την αισιόδοξη πρόβλεψη, η εξέλιξη της τεχνητής νοημοσύνης θα συνδράμει στην ανάπτυξη συστημάτων που θα βελτιώσουν το επίπεδο ζωής παγκοσμίως. Ήδη ερευνητές που συνεργάζονται με τον ΟΗΕ έχουν δημιουργήσει αλγόριθμους που μπορούν να χρησιμοποιήσουν δεδομένα σχετικά με την παραγωγή ενέργειας, την οικονομική ανάπτυξη, το μέγεθος του πληθυσμού και την παραγωγή τροφίμων για να προβλέψουν πού μπορεί να εκδηλωθούν μελλοντικές μεταναστευτικές κρίσεις. Αντιστοίχως, ινστιτούτα του Ηνωμένου Βασιλείου και ομάδες εργασίας των ΗΠΑ, έχουν δημιουργήσει συστήματα τεχνητής νοημοσύνης ικανά να προβλέψουν πιθανά σημεία εκδήλωσης μελλοντικών συγκρούσεων. Χρησιμοποιώντας στατιστικά δεδομένα, στρατιωτικές αναφορές και αναλύοντας ειδησεογραφικές αναφορές για σημάδια αυξανόμενης έντασης, οι μηχανές τους μπορούν να εκτιμήσουν την πιθανότητα κλιμάκωσης της βίας σε περιοχές που θεωρούνται πρόσφορες για την εκδήλωση εγκληματικών φαινομένων. Αν η ανάπτυξη της τεχνητής νοημοσύνης επικεντρωθεί στο κοινό καλό, με διαφάνεια στον σχεδιασμό των συστημάτων τεχνητής νοημοσύνης και με τη δυνατότητα των ατόμων να επιλέγουν αν οι δημόσια διαθέσιμες πληροφορίες τους στο διαδίκτυο περιλαμβάνονται στη βάση γνώσεων της τεχνητής νοημοσύνης, τότε μπορεί να γίνει λόγος για μια εξαιρετικά ωφέλιμη πτυχή της τεχνολογίας. Ωστόσο, η πιθανότητα το σενάριο αυτό να επιβεβαιωθεί αγγίζει την τάξη του 20% μόνο. 

Αναλύοντας, ωστόσο, την εικόνα που έχει διαμορφωθεί ως τώρα από τις εφαρμογές της τεχνητής νοημοσύνης, τα αποτελέσματα φαίνονται να είναι περισσότερο δυσοίωνα. Τα συστήματα αυτά δεν είναι εγγενώς επιβλαβή. Οι άνθρωποι είναι αυτοί που κατασκευάζουν τον αλγόριθμο και αυτοί που επιλέγουν τα προς μάθηση δεδομένα, δημιουργώντας συστήματα που αντανακλούν τα δικά τους στερεότυπα και τις δικές τους προκαταλήψεις. Ένας πιθανός κίνδυνος των μηχανών μάθησης είναι ότι μπορούν να εξελιχθούν σε σημείο που τα όρια μεταξύ ανθρώπινου και τεχνητού-κατασκευασμένο από μηχανές λόγου να είναι πλέον δυσδιάκριτα. Συνεπώς, μπορούν να παραχθούν μεγάλες ποσότητες κειμένων με σκοπό την διόγκωση των φαινομένων της προπαγάνδας και της παραπληροφόρησης. Η δημιουργία πλαστού ή παραπλανητικού περιεχομένου, που μπορεί να φαίνεται ότι είναι γραμμένο από άνθρωπο, είναι πιθανό να διαιωνίζει τη ρητορική μίσους και αυτή με τη σειρά της να οδηγεί σε πράξεις μίσους και βίαιες απειλές.

Σημαντικά ερωτήματα εγείρονται και για τα πνευματικά δικαιώματα καλλιτεχνών, το στυλ των οποίων «αντιγράφεται» για να παραχθούν νέα έργα σε εφαρμογές που αξιοποιούν την τεχνητή νοημοσύνη, όπως για παράδειγμα η Lensa. Η δημοτικότητα τέτοιων εφαρμογών θέτει προβληματισμούς σχετικά με την προστασία της ιδιωτικής ζωής αλλά και τη σεξουαλικοποίηση γυναικών και παιδιών. Λογισμικά αναγνώρισης προσώπου που ταξινομούν λανθασμένα τα μαύρα πρόσωπα, αλγόριθμοι κατάρτισης εγκληματικών προφίλ που κατατάσσουν τους μη λευκούς ως άτομα υψηλότερου κινδύνου και εργαλεία πρόσληψης που βαθμολογούν τις γυναίκες χαμηλότερα από τους άνδρες, είναι λίγα από τα παραδείγματα όπου η τεχνητή νοημοσύνη φαίνεται να λειτουργεί με βάση τη διάδοση μιας ρητορικής μίσους. Οι αλγόριθμοι απλώς αναπαράγουν, όπως είναι κατασκευασμένοι να κάνουν, αυτές τις διακρίσεις. 

Η απόδοση ευθυνών δεν είναι τόσο εύκολη όταν το αποτέλεσμα είναι προϊόν ενός αλγορίθμου. Τα αποτελέσματα τα οποία βασίζονται σε δεδομένα μηχανικής εκμάθησης, είναι προϊόν αναγνώρισης και συνδυασμού μοτίβων και συνεπώς το περιεχόμενο που παράγεται από προγράμματα που στηρίζονται σε τεχνητή νοημοσύνη παρουσιάζεται εντελώς αφιλτράριστο. Οι προκαταλήψεις των χρηστών αλλά και των ίδιων των μηχανικών επηρεάζουν την κωδικοποίηση αλλά και τον τρόπο ανάπτυξης αυτών των αλγορίθμων μηχανικής εκμάθησης

Για να προληφθεί το περισσότερο δυσοίωνο σενάριο απαιτούνται ενέργειες από τις ίδιες τις κυβερνήσεις και την επιστημονική κοινότητα που απασχολείται στον εν λόγω τομέα. Οι ενέργειες ωστόσο, θα δρομολογηθούν εάν και εφόσον υπάρξει αναγνώριση και πάντα σύμφωνα με τα συμφέροντα των εχόντων την εξουσία.

Πηγές:

https://www.bbc.com/news/world-us-canada-64967627 

https://www.bbc.com/future/article/20181115-a-guide-to-how-artificial-intelligence-is-changing-the-world