Εγκλήματα, Κοινωνία, Κυβερνοπόλεμος, Τεχνητή Νοημοσύνη

Αυτονομία και Ευθύνη: Οι ηθικές προκλήσεις των AI-οπλικών συστημάτων στο σύγχρονο πόλεμο

Με αφορμή το νέο άρθρο του The Guardian (“AI’s ‘Oppenheimer moment’: autonomous weapons enter the battlefield”) δημιουργείται  συζήτηση για την αυξανόμενη χρήση των όπλων που βασίζονται στην τεχνητή νοημοσύνη (AI) και την ανάπτυξη αυτών των τεχνολογιών στον στρατιωτικό τομέα.

Τα κύρια σημεία του άρθρου εστιάζουν στην αυξανόμενη χρήση και ανάπτυξη των όπλων, όπως για παράδειγμα τα μη επανδρωμένα μαχητικά (drones) αλλά και τα αρνητικά στοιχεία της παρουσίας τεχνητής νοημοσύνης, καθώς υπάρχουν σοβαρές ανησυχίες σχετικά με την ηθική και την προβλεψιμότητα αυτών των τεχνολογιών. Γίνεται επίσης αναφορά στην αύξηση των επενδύσεων από χώρες με μεγάλη πολεμική και στρατηγική δύναμη όπως οι Ηνωμένες Πολιτείες της Αμερικής, που χρηματοδοτούν προγράμματα άνω του ενός δις δολάρια για εξοπλισμό με λογισμικά AI. Ωστόσο, παρουσιάζει και τα ηθικάνομικά διλήμματα που έρχονται στο προσκήνιο, αλλά και τις συζητήσεις για την ανάγκη ύπαρξης «ανθρώπου στο βρόχο», δηλαδή ενός ατόμου κάτω από τη διαρκή πίεση για τη λήψη αποφάσεων και την αποφυγή πλήρους ελέγχου από μηχανές.

Τα τεχνολογικά συστήματα και οι αμυντικές εταιρείες λειτουργούν με μικρή διαφάνεια και ευθύνη, γεγονός που δημιουργεί μια “διπλή μαύρη τρύπα” όσον αφορά τη δημόσια γνώση για τη λειτουργία τους. Τονίζει μάλιστα, τις διεθνείς προσπάθειες για ρύθμιση, με οργανώσεις όπως η Διεθνής Επιτροπή του Ερυθρού Σταυρού, να ζητούν περιορισμούς ή απαγορεύσεις σε συγκεκριμένα είδη αυτόνομων όπλων, με τους οικονομικούς κολοσσούς (χώρες) να αντιτίθενται στους διεθνείς νόμους.

Το άρθρο υπογραμμίζει τη σοβαρότητα της κατάστασης και τον κίνδυνο της ανεξέλεγκτης ανάπτυξης των AI-όπλων, επισημαίνοντας την ανάγκη για διεθνείς κανονισμούς και ανθρώπινο έλεγχο.

Σύμφωνα με τον Guardian, οι συνέπειες της εισαγωγής της τεχνητής νοημοσύνης (AI) στα στρατιωτικά πεδία είναι ποικίλες και πολύπλοκες, περιλαμβάνοντας τόσο θετικές όσο και αρνητικές πτυχές. Ας δούμε όμως αναλυτικότερα ποιες είναι αυτές, σε συνδυασμό με τις προκλήσεις που συσπειρώνονται για τον ανθρώπινο έλεγχο.

Θετικές Συνέπειες:

  1. Αυξημένη Αποτελεσματικότητα: Οι AI-οδηγούμενες τεχνολογίες μπορούν να αυξήσουν την ταχύτητα και την ακρίβεια των στρατιωτικών επιχειρήσεων, μειώνοντας τον χρόνο απόκρισης και βελτιώνοντας την αποτελεσματικότητα των επιθέσεων.
  2. Μείωση Ανθρώπινων Απωλειών: Η χρήση αυτόνομων συστημάτων μπορεί να μειώσει την ανάγκη για ανθρώπινη παρουσία στα πεδία μάχης, περιορίζοντας έτσι τις απώλειες στρατιωτών.

Αρνητικές Συνέπειες:

  1. Ηθικά και Νομικά Διλήμματα: Υπάρχουν σοβαρές ανησυχίες για την ηθική της χρήσης AI σε πολεμικά περιβάλλοντα, όπως η δυνατότητα λήψης αποφάσεων για το ποιος ζει και ποιος πεθαίνει από μηχανές χωρίς ανθρώπινη παρέμβαση.
  2. Απρόβλεπτη Συμπεριφορά και Σφάλματα: Η τεχνητή νοημοσύνη μπορεί να κάνει λάθη ή να πάρει αποφάσεις που δεν είναι προβλέψιμες, οδηγώντας σε ανεπιθύμητες ή επικίνδυνες καταστάσεις, όπως η κατά λάθος στόχευση αθώων πολιτών.
  3. Έλλειψη Διαφάνειας και Λογοδοσίας: Οι τεχνολογίες AI στον στρατιωτικό τομέα συχνά αναπτύσσονται και χρησιμοποιούνται με ελάχιστη διαφάνεια και λογοδοσία, δημιουργώντας προβλήματα όσον αφορά τον έλεγχο και την ευθύνη για τα αποτελέσματα των ενεργειών τους. Ποιος εν τέλει θα φέρει την ευθύνη αν κάτι πάει στραβά; Ο άνθρωπος ή η μηχανή;
  4. Κίνδυνος Κλιμάκωσης: Η εισαγωγή προηγμένων AI-όπλων μπορεί να οδηγήσει σε έναν νέο αγώνα εξοπλισμών, αυξάνοντας τον κίνδυνο κλιμάκωσης συγκρούσεων και πολέμων.
  5. Μεταβολή της Φύσης του Πολέμου: Η αυξανόμενη ενσωμάτωση των AI-συστημάτων μπορεί να αλλάξει τη φύση των στρατιωτικών επιχειρήσεων και να επηρεάσει τη σχέση της κοινωνίας με τον πόλεμο και την τεχνολογία.

Κοινωνικές και Πολιτικές Συνέπειες:

  1. Επιρροή στην Εσωτερική Ασφάλεια: Οι στρατιωτικές τεχνολογίες μπορεί να εισαχθούν και σε τομείς όπως η αστυνόμευση και ο έλεγχος των συνόρων, επηρεάζοντας την εσωτερική ασφάλεια και τις πολιτικές ελευθερίες.
  2. Διεθνείς Σχέσεις και Ρύθμιση: Η απουσία διεθνών κανονισμών για τα αυτόνομα όπλα μπορεί να προκαλέσει διεθνείς εντάσεις και να περιπλέξει τις προσπάθειες για τον έλεγχο των εξοπλισμών.

Η δυνατότητα να τεθεί η νέα μορφή κυβερνοπολέμου υπό ανθρώπινο έλεγχο είναι ένα από τα κεντρικά ζητήματα που εξετάζει και το άρθρο του Guardian. Υπάρχουν διάφορες προσεγγίσεις και απόψεις σχετικά με το κατά πόσο μπορεί να επιτευχθεί και να διατηρηθεί αυτός ο έλεγχος:

Οι προκλήσεις για τον Ανθρώπινο Έλεγχο μπορούν να είναι:

  1. Ταχύτητα Λήψης Αποφάσεων: Τα αυτόνομα συστήματα μπορούν να λαμβάνουν αποφάσεις σε ταχύτητες που υπερβαίνουν κατά πολύ την ανθρώπινη ικανότητα, καθιστώντας δύσκολο για τους ανθρώπους να παρεμβαίνουν εγκαίρως.
  2. Πολυπλοκότητα των Συστημάτων: Η αυξανόμενη πολυπλοκότητα των AI-συστημάτων δυσχεραίνει την κατανόηση και την παρακολούθηση της λειτουργίας τους, περιορίζοντας την ικανότητα των ανθρώπων να ελέγχουν και να παρεμβαίνουν.
  3. Ηθικά Διλήμματα και Ευθύνη: Οι δυσκολίες στη διασφάλιση ότι υπάρχει πάντα κάποιο άτομο σε θέση ευθύνης δημιουργούν ηθική ταλάντωση, καθώς η ευθύνη για σφάλματα και ατυχήματα γίνεται για άλλη μία φορά θολή.

Ορισμένες προτάσεις ελέγχου θα μπορούσαν να είναι, μια κοινή προσέγγιση:

  1. Στην ύπαρξη ανθρώπου στον κύκλο λήψης αποφάσεων, που θα έχει την τελική ευθύνη για κρίσιμες ενέργειες, αν και υπάρχει ασάφεια για το πώς θα εφαρμοστεί  πρακτικά η απαίτηση για μεγαλύτερη διαφάνεια στη λειτουργία των AI-συστημάτων και η καθιέρωση μηχανισμών λογοδοσίας για τα λάθη και τις παραβιάσεις.
  2. Στους διεθνείς κανονισμούς και συνθήκες, για να προωθήσουν τον περιορισμό της χρήσης αυτόνομων όπλων και να διασφαλίσουν ότι οι αποφάσεις ζωής και θανάτου τουλάχιστον παραμένουν στα χέρια των ανθρώπων.
  1. Αλλά και τη δημιουργία τεχνολογικών λύσεων, όπως η ανάπτυξη υβριδικών συστημάτων που συνδυάζουν την ανθρώπινη κρίση με την ταχύτητα και την ακρίβεια των αυτόνομων συστημάτων. Τέλος, να δοθεί η απαραίτητη προσοχή στην εκπαίδευση στρατιωτών και προσωπικού σε σενάρια/προσομοιώσεις που περιλαμβάνουν τη χρήση AI, ώστε να είναι καλύτερα προετοιμασμένοι να αντιδράσουν σε απρόβλεπτες καταστάσεις.

Ενώ είναι εφικτό να τεθεί ο κυβερνοπόλεμος και η χρήση αυτόνομων όπλων υπό ανθρώπινο έλεγχο, απαιτείται μια συντονισμένη και πολυδιάστατη προσέγγιση που να περιλαμβάνει τεχνολογικές και θεσμικές λύσεις, διεθνή συνεργασία και αυστηρούς κανονισμούς. Η διασφάλιση του ανθρώπινου ελέγχου είναι απαραίτητη για την αποφυγή ηθικών, νομικών και πρακτικών προβλημάτων που μπορεί να προκύψουν από την ανεξέλεγκτη χρήση της τεχνητής νοημοσύνης στον πόλεμο.

Πηγές:

https://www.theguardian.com/technology/article/2024/jul/14/ais-oppenheimer-moment-autonomous-weapons-enter-the-battlefield 

https://odeth.eu/