Εργασία, Ιδιωτικότητα, Τεχνητή Νοημοσύνη

Η τεχνητή νοημοσύνη είναι τώρα συνάδελφός σου. Μπορείς να την εμπιστευτείς;

Μεταφράζει η Δήμητρα Καριεντίδου

Τα εργαλεία Generative AI, όπως το ChatGPT της OpenAI και το Copilot της Microsoft, εξελίσσονται ραγδαία, τροφοδοτώντας ανησυχίες ότι η τεχνολογία θα μπορούσε να ανοίξει τον δρόμο για πολλαπλά ζητήματα ιδιωτικότητας και ασφάλειας, ιδιαίτερα στον χώρο εργασίας.

Τον Μάιο, ακτιβιστές υπέρ της ιδιωτικότητας χαρακτήρισαν το νέο εργαλείο Recall της Microsoft ως πιθανό «εφιάλτη για την ιδιωτικότητα» λόγω της δυνατότητάς του να λαμβάνει στιγμιότυπα οθόνης του φορητού υπολογιστή του χρήστη κάθε λίγα δευτερόλεπτα. Το χαρακτηριστικό αυτό έχει τραβήξει την προσοχή της ρυθμιστικής αρχής του Ηνωμένου Βασιλείου, του Γραφείου του Επιτρόπου Πληροφοριών, το οποίο ζητά από τη Microsoft να αποκαλύψει περισσότερες πληροφορίες σχετικά με την ασφάλεια του προϊόντος που θα κυκλοφορήσει σύντομα στους υπολογιστές Copilot+.

Οι ανησυχίες αυξάνονται επίσης για το ChatGPT της OpenAI, το οποίο έχει επιδείξει δυνατότητες λήψης στιγμιότυπων οθόνης στη νέα εφαρμογή του για macOS που πρόκειται να κυκλοφορήσει σύντομα. Οι ειδικοί σε θέματα ιδιωτικότητας υποστηρίζουν ότι αυτό θα μπορούσε να οδηγήσει στη συλλογή ευαίσθητων δεδομένων.

Η Βουλή των Αντιπροσώπων των ΗΠΑ έχει απαγορεύσει τη χρήση του Copilot της Microsoft από τα μέλη του προσωπικού, μετά από την απόφαση του Γραφείου Κυβερνοασφάλειας ότι αποτελεί κίνδυνο για τους χρήστες λόγω “της απειλής διαρροής δεδομένων της Βουλής σε μη εγκεκριμένες υπηρεσίες cloud.”

Παράλληλα, η εταιρεία αναλύσεων αγοράς Gartner προειδοποίησε ότι “η χρήση του Copilot για το Microsoft 365 αυξάνει τους κινδύνους έκθεσης ευαίσθητων δεδομένων και περιεχομένου τόσο εσωτερικά όσο και εξωτερικά.” Τον περασμένο μήνα, η Google αναγκάστηκε να κάνει προσαρμογές στη νέα λειτουργία αναζήτησής της, AI Overviews, μετά από  στιγμιότυπα οθόνης με περίεργες και παραπλανητικές απαντήσεις σε ερωτήματα όπου έγιναν viral.

Υπερέκθεση

Για όσους χρησιμοποιούν γενετική AI στην εργασία τους, μία από τις μεγαλύτερες προκλήσεις είναι ο κίνδυνος ακούσιας έκθεσης ευαίσθητων δεδομένων. Τα περισσότερα συστήματα γενετικής AI είναι σαν “μεγάλα σφουγγάρια”, λέει ο Camden Woollven, επικεφαλής της ομάδας AI στην εταιρεία διαχείρισης κινδύνων GRC International Group. “Απορροφούν τεράστιες ποσότητες πληροφοριών από το διαδίκτυο για να εκπαιδεύσουν τα γλωσσικά τους μοντέλα”.

Οι εταιρείες AI είναι “πεινασμένες για δεδομένα για να εκπαιδεύσουν τα μοντέλα τους” και φαίνεται πως “το κάνουν συμπεριφορικά ελκυστικό” να το δοκιμάσουν, λέει ο Steve Elcock, CEO και ιδρυτής της εταιρείας λογισμικού Elementsuite. Αυτή η τεράστια συλλογή δεδομένων σημαίνει ότι υπάρχει η πιθανότητα ευαίσθητες πληροφορίες να εισαχθούν “στο οικοσύστημα κάποιου άλλου” λέει ο Jeff Watkins, επικεφαλής προϊόντος και τεχνολογίας στην ψηφιακή συμβουλευτική εταιρεία xDesign. “Αυτές οι πληροφορίες θα μπορούσαν επίσης να εξαχθούν αργότερα μέσω έξυπνων τεχνικών”. 

Ταυτόχρονα, υπάρχει η απειλή ότι τα ίδια τα συστήματα AI μπορεί να γίνουν στόχος παραβιάσεων. “Θεωρητικά, αν ένας επιτιθέμενος κατάφερνε να αποκτήσει πρόσβαση στο μεγάλο γλωσσικό μοντέλο (LLM) που τροφοδοτεί τα εργαλεία AI μιας εταιρείας, θα μπορούσε να αποσπάσει ευαίσθητα δεδομένα, να “φυτέψει” ψευδείς ή παραπλανητικές απαντήσεις ή να χρησιμοποιήσει το AI για να διαδώσει κακόβουλο λογισμικό” λέει ο Woollven.

Τα εργαλεία AI για καταναλωτές μπορούν να δημιουργήσουν προφανείς κινδύνους. Ωστόσο, ένας αυξανόμενος αριθμός πιθανών προβλημάτων προκύπτει και με τις «ιδιόκτητες» λύσεις AI, οι οποίες θεωρούνται γενικά ασφαλείς για χρήση στην εργασία, όπως το Microsoft Copilot, σύμφωνα με τον Phil Robinson, κύριο σύμβουλο στην εταιρεία συμβούλων ασφάλειας Prism Infosec.

“Θεωρητικά, αυτό θα μπορούσε να χρησιμοποιηθεί για να αποκτήσει πρόσβαση σε ευαίσθητα δεδομένα αν τα δικαιώματα πρόσβασης δεν έχουν περιοριστεί σωστά. Θα μπορούσαμε να δούμε υπαλλήλους να ζητούν να δουν κλίμακες μισθών, δραστηριότητες συγχωνεύσεων και εξαγορών, ή έγγραφα που περιέχουν διαπιστευτήρια, τα οποία θα μπορούσαν στη συνέχεια να διαρρεύσουν ή να πουληθούν”. 

Ένα άλλο ζήτημα αφορά τα εργαλεία AI που θα μπορούσαν να χρησιμοποιηθούν για την παρακολούθηση του προσωπικού, κάτι που ενδέχεται να παραβιάζει την ιδιωτικότητά τους. Η λειτουργία Recall της Microsoft δηλώνει ότι “τα στιγμιότυπα οθόνης σας είναι δικά σας· παραμένουν τοπικά στον υπολογιστή σας” και ότι “εσείς έχετε πάντα τον έλεγχο με τις πληροφορίες που μπορείτε να εμπιστευτείτε”. 

Ωστόσο, “δεν φαίνεται να απέχουμε πολύ από τη στιγμή που αυτή η τεχνολογία θα μπορούσε να χρησιμοποιηθεί για την παρακολούθηση των υπαλλήλων” λέει ο Elcock.

Αυτολογοκρισία

Η γενετική AI ενέχει αρκετούς πιθανούς κινδύνους, αλλά υπάρχουν βήματα που οι επιχειρήσεις και οι μεμονωμένοι υπάλληλοι μπορούν να λάβουν για να βελτιώσουν την ιδιωτικότητα και την ασφάλεια. Πρώτον, μην εισάγετε εμπιστευτικές πληροφορίες σε ένα prompt για ένα δημόσια διαθέσιμο εργαλείο όπως το ChatGPT ή το Gemini της Google, προτείνει η Lisa Avvocato, αντιπρόεδρος μάρκετινγκ και κοινότητας στην εταιρεία δεδομένων Sama.

Όταν δημιουργείτε ένα prompt, να είστε γενικοί ώστε να αποφύγετε την κοινοποίηση υπερβολικών πληροφοριών. <<Ρωτήστε, Γράψτε ένα πρότυπο πρότασης για δαπάνες προϋπολογισμού, και όχι Αυτός είναι ο προϋπολογισμός μου, γράψτε μια πρόταση για δαπάνες σε ένα ευαίσθητο έργο,>> λέει η Avvocato. <<Χρησιμοποιήστε την AI ως πρώτο προσχέδιο και στη συνέχεια προσθέστε τις ευαίσθητες πληροφορίες που χρειάζεται να περιλαμβάνονται.>>

Εάν χρησιμοποιείτε την τεχνητή νοημοσύνη για έρευνα, αποφύγετε προβλήματα όπως αυτά που παρατηρήθηκαν με το Google’s AI Overviews, επαληθεύοντας τις πληροφορίες που σας παρέχει, λέει η Avvocato. “Ζητήστε να σας δώσει αναφορές και συνδέσμους προς τις πηγές της. Αν ζητήσετε από την AI να γράψει κώδικα, πρέπει να τον ελέγξετε προσεκτικά και να μην υποθέσετε ότι είναι έτοιμος για χρήση”

Η ίδια η Microsoft έχει δηλώσει ότι το Copilot πρέπει να ρυθμιστεί σωστά και ότι πρέπει να εφαρμόζεται η αρχή της “ελάχιστης προνομιακής πρόσβασης” — η έννοια ότι οι χρήστες θα πρέπει να έχουν πρόσβαση μόνο στις πληροφορίες που χρειάζονται. Αυτό είναι “ένα κρίσιμο σημείο” λέει ο Robinson της Prism Infosec. “Οι οργανισμοί πρέπει να θέσουν τις βάσεις για αυτά τα συστήματα και να μην εμπιστεύονται απλά την τεχνολογία, υποθέτοντας ότι όλα θα πάνε καλά”.

Αξίζει επίσης να σημειωθεί ότι το ChatGPT χρησιμοποιεί τα δεδομένα που μοιράζεστε για να εκπαιδεύσει τα μοντέλα του, εκτός εάν απενεργοποιήσετε αυτήν τη δυνατότητα στις ρυθμίσεις ή χρησιμοποιήσετε την επιχειρηματική έκδοση.

Κατάλογος Διαβεβαιώσεων

Οι εταιρείες που ενσωματώνουν γενετική AI στα προϊόντα τους δηλώνουν ότι κάνουν ό,τι μπορούν για να προστατεύσουν την ασφάλεια και την ιδιωτικότητα. Η Microsoft επιδιώκει να επισημάνει τις προτεραιότητες ασφαλείας και ιδιωτικότητας στο προϊόν Recall, καθώς και την ικανότητα ελέγχου της λειτουργίας στις Ρυθμίσεις > Απόρρητο & ασφάλεια > Recall & snapshots.

Η Google δηλώνει ότι η γενετική AI στο Workspace “δεν αλλάζει τις θεμελιώδεις προστασίες ιδιωτικότητας που δίνουν στους χρήστες επιλογές και έλεγχο των δεδομένων τους” και τονίζει ότι οι πληροφορίες δεν χρησιμοποιούνται για διαφημιστικούς σκοπούς.

Η OpenAI επαναλαμβάνει τη δέσμευσή της στη διατήρηση της ασφάλειας και της ιδιωτικότητας στα προϊόντα της, ενώ οι εκδόσεις για επιχειρήσεις προσφέρονται με επιπλέον ελέγχους. “Θέλουμε τα μοντέλα AI μας να μαθαίνουν για τον κόσμο, όχι για ιδιώτες, και λαμβάνουμε μέτρα για να προστατεύσουμε τα δεδομένα και την ιδιωτικότητα των ανθρώπων” αναφέρει εκπρόσωπος της OpenAI.

Η OpenAI δηλώνει ότι παρέχει τρόπους ελέγχου του τρόπου με τον οποίο χρησιμοποιούνται τα δεδομένα, συμπεριλαμβανομένων εργαλείων αυτοεξυπηρέτησης για πρόσβαση, εξαγωγή και διαγραφή προσωπικών πληροφοριών, καθώς και τη δυνατότητα εξαίρεσης από τη χρήση περιεχομένου για τη βελτίωση των μοντέλων της. Σύμφωνα με την εταιρεία, το ChatGPT Team, το ChatGPT Enterprise και το API της δεν εκπαιδεύονται σε δεδομένα ή συνομιλίες, και τα μοντέλα της δεν μαθαίνουν από τη χρήση από προεπιλογή.

Σε κάθε περίπτωση, φαίνεται ότι ο “συνεργάτης” AI ήρθε για να μείνει. Καθώς αυτά τα συστήματα γίνονται πιο εξελιγμένα και πανταχού παρόντα στον χώρο εργασίας, οι κίνδυνοι θα ενταθούν, λέει ο Woollven. “Ήδη βλέπουμε την εμφάνιση πολυτροπικών συστημάτων AI όπως το GPT-4o, τα οποία μπορούν να αναλύουν και να δημιουργούν εικόνες, ήχο και βίντεο. Έτσι, πλέον δεν είναι μόνο τα δεδομένα κειμένου που οι εταιρείες πρέπει να ανησυχούν για την προστασία τους”.

Με αυτό κατά νου, οι άνθρωποι και οι επιχειρήσεις πρέπει να υιοθετήσουν τη νοοτροπία της αντιμετώπισης της AI όπως κάθε άλλη υπηρεσία τρίτου μέρους, λέει ο Woollven. “Μην μοιράζεστε τίποτα που δεν θα θέλατε να μεταδοθεί δημόσια”. 

Πηγή: 

https://www.wired.com/story/ai-workplace-privacy-security/