Γράφει η Κίννα Ευθυμία
Όταν μιλάμε για Τεχνητή Νοημοσύνη, αναφερόμαστε σε συστήματα λογισμικού που σχεδιάζονται από ανθρώπους και βάσει ενός δεδομένου σύνθετου στόχου, ενεργούν στην υλική ή ψηφιακή διάσταση, με το να αντιλαμβάνονται το περιβάλλον μέσω απόκτησης δεδομένων, να ερμηνεύουν τα δεδομένα που έχουν συλλεχθεί, να προβαίνουν σε συλλογισμούς με βάση τις γνώσεις από αυτά τα δεδομένα και να αποφασίζουν ποια είναι η βέλτιστη ενέργεια που θα εκτελέσουν. Άρα τα συστήματα Τεχνητής Νοημοσύνης σκέφτονται ορθολογικά, σαν άνθρωποι, μέσω της μηχανικής μάθησης και όρασης, επεξεργασία γλώσσας και της ρομποτικής. Πλέον η Τεχνητή Νοημοσύνη είναι παντού γύρω μας και χρησιμοποιείται, ευρέως στα οπλικά συστήματα, με τα αυτόνομα φονικά οπλικά συστήματα (LAWS) να βρίσκονται στις «κόκκινες γραμμές» της Ευρωπαϊκής Ένωσης, καθώς δεν υπάρχει μια «κοινή γραμμή», με αποτέλεσμα να υπάρχουν ανησυχίες για θέματα όπως συγκαλυμμένα συστήματα τεχνητής νοημοσύνης, μαζική αξιολόγηση πολιτών και ταυτοποίηση χωρίς συγκατάθεση.
Τα τελευταία χρόνια, η εισαγωγή και η χρήση των οπλικών συστημάτων τεχνητής νοημοσύνης στις πολεμικές επιχειρήσεις, βάζει την τεχνητή νοημοσύνη στην στρατιωτική δράση και επηρεάζει πλέον την διεθνή ασφάλεια. Τον περασμένο αιώνα, η πολεμική τέχνη επηρεάστηκε από τον «Κύκλο του Boyd», Αμερικανού Σμηνάρχου (Boyd Cycle). Με βάση τον Κύκλο, οι φίλιες δυνάμεις εκτελούν αδιαλείπτως διαδοχικές ενέργειες τεσσάρων σταδίων [παρατήρηση, προσανατολισμός, απόφαση, ενέργεια (OODA)], προκειμένου να πραγματοποιήσουν το πρώτο πλήγμα εναντίον της πιο επικίνδυνης απειλής αλλά και να επιτύχουν τον αποπροσανατολισμό του αντιπάλου και την κατάρρευση του μηχανισμού λήψης απόφασής του. Τον 21ο αιώνα, η εισαγωγή και η χρησιμοποίηση των οπλικών συστημάτων τεχνητής νοημοσύνης φέρνει στον πόλεμο τις μηχανές, οι οποίες έχουν τη δυνατότητα να αξιολογούν απειλές με μεγάλη ταχύτητα, να αποφασίζουν και να εκτελούν πολεμικά χτυπήματα σε πραγματικό χρόνο, χωρίς την παρεμβολή της ανθρώπινης βούλησης. Τα οπλικά συστήματα τεχνητής νοημοσύνης θα έχουν τη δυνατότητα να εφαρμόζουν τον «Κύκλο του Boyd» με ασύλληπτες για τον άνθρωπο ταχύτητες, σε πολλαπλές πολεμικές εφαρμογές, υπερνικώντας έτσι την ανθρώπινη βούληση και ενέργεια. Έτσι δίνεται η δυνατότητα σε κράτη με οπλικά συστήματα τεχνητής νοημοσύνης να κερδίζουν μελλοντικούς υπερπολέμους. Για παράδειγμα, το Σύστημα Phalanx Shield του Αμερικανικού Ναυτικού, όταν τίθεται σε λειτουργία, μπορεί χωρίς ανθρώπινη παρέμβαση να ερευνά, να αναγνωρίζει, να παρακολουθεί, να προσβάλει εχθρικούς στόχους και να κάνει εκτίμηση ζημιών της προσβολής με ταχύτητα και ακρίβεια.
Τα βασικά ηθικά και νομικά ζητήματα σχετικά με την Τεχνητή Νοημοσύνη έχουν να κάνουν με την ευθύνη, την ηθική, την νομιμότητα, ευαλωτότητα των συστημάτων και την υπεύθυνη ανταγωνιστικότητα. Το πρώτο βασικό θέμα που αναδύεται από την εξέλιξη της τεχνητής νοημοσύνης είναι η παραγκώνιση του ανθρώπινου παράγοντα και η έννοια της ευθύνης, δηλαδή ποιος θα έχει τη ευθύνη όταν μια μηχανή λαμβάνει μια απόφαση. Σύμφωνα με την Θεωρία του «Μαύρου Κύκνου», πως θα αντιδράσει η τεχνητή νοημοσύνη σε απρόβλεπτα γεγονότα ( πχ εμφάνιση ενός παιδιού ή φίλιων στρατιωτών στο πεδίο της μάχης) που δεν βρίσκονται στα δεδομένα που έχουν δοθεί στο σύστημα και χρειάζεται η ανθρώπινη κρίση; Επίσης, όσο περισσότερο αντικαθίσταται ο στρατιώτης τόσο πιο δύσκολο θα είναι να συμβαδίσει με την ροή των εξελίξεων, με αποτέλεσμα ο πόλεμος πια να γίνεται με ταχύτητα και εκρηκτικότητα που δεν θα συμβαδίζει ο άνθρωπος. Άρα, σιγά σιγά θα αλλάξει και η δομή και η στρατιωτική οργάνωση καθώς θα αντικατασταθεί από τα συστήματα.
Άλλο πολύ σημαντικό θέμα είναι η ευαλωτότητα των συστημάτων στις κυβερνοεπιθέσεις και επομένως η ασφάλεια του αποτελέσματος. Δεν πρέπει να ξεχνάμε ότι τα δεδομένα που έχουν πια τα συστήματα είναι συνδυαστικά, κάτι που σημαίνει ότι αν μπλοκαριστεί μια πηγή δεδομένων, το σύστημα θα δράσει μόνο με τα υπόλοιπα ελλιπή δεδομένα. Πως διασφαλίζεται η προστασία των δεδομένων του κράτους και η ιδιωτικότητα; Ακόμη δεν πρέπει να ξεχνάμε πως καθώς ο πόλεμος αλλάζει μορφή, θα πρέπει να υπάρχει υπεύθυνη ανταγωνιστικότητα. Τα κράτη θα μπορούν να προβαίνουν πιο εύκολα σε εχθροπραξίες, καθώς δεν θα φοβούνται μην χάσουν ανθρώπινο δυναμικό και ίσως κάποια κράτη να εμπλέκονται πιο επιπόλαια σε πολέμους, εάν έχουν καλά συστήματα τεχνητής νοημοσύνης.
Συνοψίζοντας, σύμφωνα με έρευνα το 80% του στρατιωτικού προσωπικού ανησυχεί για τα κοινωνικά ζητήματα που μπορεί να προκαλέσει ένας ρομποτικός πόλεμος. Άρα εφόσον τα συστήματα τεχνητής νοημοσύνης είναι «ηθικά τυφλά», υπάρχει η ανάγκη ανθρώπινης παρέμβασης – εποπτείας και εστίαση στην ανθρωποκεντρική τεχνητή νοημοσύνη. Γίνεται προσπάθεια από την Ευρωπαϊκή Ένωση για κοινή γραμμή ηθικών κανόνων στην τεχνολογική πράξη και για διεθνή και διατομεακή συνεργασία, με 7 βασικές αρχές για επίτευξη αξιόπιστης τεχνητής νοημοσύνης. Βέβαια, αυτό είναι κάτι που πρέπει να γίνει γρήγορα, καθώς η εξέλιξη της τεχνητής νοημοσύνης σε όλα τα επίπεδα είναι ραγδαία.
Πηγές:
https://www.aims-international.org/AIMSijm/papers/15-3-3.pdf
https://iris.unive.it/handle/10278/5079401
https://philsci-archive.pitt.edu/25027/
Ψυχολόγος, Εγκληματολόγος MSc – Ψυχοθεραπεύτρια
MSc Ταυτότητα και Διαπροσωπικές Σχέσεις, Ψυχιατροδικαστική και Εγκληματολογία
Εξωτερικός Συνεργάτης Αιγινητείου Νοσοκομείου