Γράφει η Αναστασία Καμαρούλια
Η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για την πρόληψη εγκλημάτων, αλλά ταυτόχρονα και για την εκτέλεση τους. Δεν χωράει αμφιβολία ότι μια τέτοια τεχνολογική εξέλιξη έχει συμβάλλει σημαντικά στη βελτίωση του βιοτικού μας επιπέδου και στην εξέλιξη πολλών επιστημονικών πεδίων. Ωστόσο θα έλεγε κανείς ότι θα ήταν παράλογο και παράδοξο να περιμένουμε ότι μια τέτοια νέα τεχνολογία δεν θα συνοδευόταν από πολλούς κινδύνους κατά την εφαρμογή της.
Τι είναι όμως η τεχνητή νοημοσύνη;
Η τεχνητή νοημοσύνη ή (AI) είναι ο κλάδος της μηχανικής υπολογιστών και πληροφορικής, ο οποίος κατά κύριο λόγο ασχολείται με την δημιουργία μηχανικών συστημάτων που μιμούνται την μεθοδολογία και συνοχή σκέψης της ανθρώπινης νοημοσύνης. Τα συστήματα τεχνητής νοημοσύνης χρησιμοποιούνται για την αυτοματοποιημένη διεκπεραίωση εργασιών, την πρόβλεψη και την διάγνωση σε τομείς όπως η υγεία, η εκπαίδευση και το μάρκετινγκ. Η εξέλιξη αυτών των κλάδων αναμφίβολα βοηθά την ανθρωπότητα να προοδεύσει και να βρει λύσεις σε προβλήματα που υπό άλλες συνθήκες μπορεί να μην ήταν δυνατό. Παράλληλα όμως, όσο εξυπηρετική και σωτήρια μπορεί να είναι αυτή η νέα τεχνολογία, τόσο επικίνδυνη μπορεί να γίνει εάν και εφόσον πέσει στα λάθος χέρια.
H Europol, μία υπηρεσία της Ευρωπαϊκής Ένωσης που καταπολεμά οργανωμένο έγκλημα, το κυβερνοέγκλημα και τις τρομοκρατικές επιθέσεις, δημοσίευσε μία έκθεση η οποία υπογραμμίζει τους διάφορους τρόπους με τους οποίους οι εγκληματίες του κυβερνοχώρου μπορούν να εκμεταλλευτούν τα μεγάλα γλωσσικά μοντέλα (large language models ή LLMs) όπως το ChatGPT της Open AI.Η έκθεση που δημοσίευσαν – η πρώτη του είδους της – είναι μια σειρά εργαστηρίων που διεξήγαγε το Εργαστήριο Καινοτομίας της Europol την διερεύνηση του συγκεκριμένου ζητήματος. Στην έκθεση της η Europol περιγράφει τα LLMs όπως το ChatGPT ως δίκοπο μαχαίρι. Ενώ υπάρχουν πολλοί θετικοί τρόποι ορθής διαχείρισης αυτής της τεχνολογίας όπως η ενίσχυση επιβολής του νόμου και ο τερματισμός κυβερνοεπιθέσεων, η τεχνολογία αυτή μπορεί εξίσου να υποβοηθήσει το κυβερνοέγκλημα και να χρησιμοποιηθεί για την δημιουργία κακόβουλου λογισμικού.
Οι εγκληματίες του κυβερνοχώρου μπορούν να χρησιμοποιήσουν τα LLMs για να διευρύνουν τις γνώσεις τους και να εμπνευστούν νέες ιδέες σε ό,τι αφορά το έγκλημα χωρίς να έχουν καμία προηγούμενη γνώση. Για παράδειγμα, μπορούν να χρησιμοποιήσουν το ChatGPT για να μάθουν πως μπορούν να εισβάλλουν σε σπίτια ή να πραγματοποιήσουν τρομοκρατικές δραστηριότητες στο διαδίκτυο.
Το ChatGPT έχει την ικανότητα να δημιουργεί εντελώς αυθεντικά κείμενα και αυτό το καθιστά το ιδανικό εργαλείο για την δημιουργία μηνυμάτων ηλεκτρονικού ψαρέματος, το λεγόμενο phishing. Με τη γλωσσική του δυνατότητα, οι εγκληματίες του κυβερνοχώρου οι οποίοι μπορεί να κατέχουν ένα χαμηλό επίπεδο γνώσης της αγγλικής γλώσσας μπορούν να σχεδιάσουν πειστικά μηνύματα ηλεκτρονικού ταχυδρομείου για παραβίαση και απάτη.
Επιπροσθέτως, το ChatGPT μπορεί να χρησιμοποιηθεί για συλλογή πληροφοριών που διευκολύνουν την διεξαγωγή τρομοκρατικών επιθέσεων όπως η χρηματοδότηση τους ή ανώνυμη ανταλλαγή αρχείων. Τα LLMs, – τα οποία είναι πολύ αποτελεσματικά στο να απαντούν ερωτήσεις και να διδάσκουν νέα πράγματα – μπορούν να διευκολύνουν την πρόσβαση σε βιολογικά όπλα. Σε μία πρόσφατη άσκηση στο MIT, χρειάστηκε μόλις μία ώρα για το ChatGPT για να απαντήσει σε μη επιστήμονες φοιτητές σχετικά με τέσσερα πιθανά παθογόνα που μπορούν να δημιουργήσουν πανδημίες. Ταυτόχρονα τους έδωσε πιθανές επιλογές για το πώς θα μπορούσαν να αποκτήσουν αυτά τα παθογόνα, χωρίς να χρειάζεται να έχουν καμία δεξιότητα να τα δημιουργήσουν σε εργαστήριο, και παράλληλα πως θα μπορούσαν να αποφύγουν τον εντοπισμό αποκτώντας γενετικό υλικό από τους παρόχους οι οποίοι δεν ελέγχουν τις παραγγελίες.
Αυτός , όμως, ο τρόπος εφαρμογής του ChatGPT όχι μόνο διευκολύνει την διάδοση της παραπληροφόρησης και του τρομοκρατικού περιεχομένου αλλά ξεγελάει και τους χρήστες του διαδικτύου να το εμπιστευθούν εφόσον έχει κατασκευαστεί από μια μηχανή και, ως εκ τούτου, ενδεχομένως, να φαίνεται πιο αντικειμενικό και πειστικό στο κοινό από ό,τι εάν είχε παραχθεί από έναν άνθρωπο, προσθέτει η Europol.
Εν κατακλείδι, σε κάθε περίπτωση η τεχνητή νοημοσύνη είναι πλέον εδώ και σίγουρα η ανθρωπότητα θα ασχοληθεί με αυτή τη νέα τεχνολογία στα επόμενα χρόνια. Αυτό που πρέπει να γίνει κατανοητό από όλους μας είναι ότι η τεχνητή νοημοσύνη δεν είναι κάτι που ο πολιτισμός έχει ξανά βιώσει, και έτσι με τα κατάλληλα εφόδια μπορεί να αντιμετωπιστεί και να περιοριστεί.
Πηγές:
Ποιοι Είναι οι Βασικοί Κίνδυνοι της Τεχνητής Νοημοσύνης;
Como trabalhar com inteligência artificial? Veja os requisitos da área(querobolsa.com.br)
ChatGPT Has Huge Potential for Criminal Use: Europol (vpnoverview.com)
Φωνές για «φρένο» στην Τεχνητή Νοημοσύνη: Οι κίνδυνοι και ο προβληματισμός στην Ευρώπη – CNN.gr
How ChatGPT could make bioterrorism easy – Vox
Η εθελοντική ομάδα του CSI Institute, αποτελούμενη από εξειδικευμένους επιστήμονες όπως, ψυχολόγους, εγκληματολόγους, κοινωνιολόγους καθώς και τεχνικούς δικτύων & πληροφορικής, είναι κοντά σας παρέχοντας πληροφορία, ενημέρωση και γνώση μέσα από ποικίλα θέματα αρθρογραφίας.