Η Google ανέπτυξε στα πλαίσια εξέλιξης της τεχνητής νοημοσύνης μέσα από πλατφόρμες chat, όπως το «ChatGPT», ένα εργαλείο δικό της, το «Gemini», μία πλατφόρμα επικοινωνίας των χρηστών με την τεχνητή νοημοσύνη που επιτρέπει τη δημιουργία ρεαλιστικού υλικού με εικόνες, αλλά και με προσωπικά μηνύματα που συνήθως απαντούν σε ερωτήσεις των ενδιαφερομένων.
Με αφορμή λοιπόν μια τέτοια ερώτηση ενός χρήστη στο διαδίκτυο, το Gemini ανταποκρίθηκε ιστορικώς εσφαλμένα και προκάλεσε αντιδράσεις τόσο για την πολιτισμική έλλειψη γνώσεών του, όσο και για στερεοτυπική υιοθεσία στις αντιλήψεις του λογισμικού του. Σύμφωνα μάλιστα με κάποιες από αυτές, να υποστηρίζουν πως η λειτουργία της AI είναι να παραμένει αντικειμενική, αλλά ταυτόχρονα να αντλεί πληροφορίες από τις διάφορες πλέον ψηφιακές βιβλιοθήκες, εγκυκλοπαίδειες και φόρουμς που έχουν ήδη πιστοποιημένο υλικό από ιστορικούς και ειδήμονες των αντίστοιχων κλάδων.
Ως απάντηση στην παραπάνω σύγχυση που δημιουργήθηκε, ο ανώτερος αντιπρόεδρος της εταιρείας Prabhakar Raghavan απολογήθηκε για τη δυσλειτουργία του Gemini και εξήγησε που μπορεί να οφείλεται το λάθος στις απαντήσεις της AI σχετικά με περιεχόμενο είτε έμφυλο είτε πολιτισμικό. Τόνισε το παρακάτω, «Λοιπόν, τι πήγε στραβά; Συνοπτικά, δύο πράγματα. Πρώτον, η ρύθμισή μας για να εξασφαλίσουμε ότι το Gemini παρουσίαζε μια συμπερίληψη ανθρώπων (διαφόρου χρώματος, φυλής και φύλου) απέτυχε να λάβει υπόψη περιπτώσεις που θα έπρεπε σαφώς να μην υπάρχει συμπερίληψη. Και δεύτερον, με την πάροδο του χρόνου, το μοντέλο έγινε πολύ πιο προσεκτικό από ό,τι είχαμε προγραμματίσει και αρνήθηκε να απαντήσει εντελώς σε ορισμένες ερωτήσεις – προτροπές, ερμηνεύοντας λανθασμένα ορισμένες από αυτές ως ευαίσθητες». Συνεχίζει, «Αυτά τα δύο πράγματα οδήγησαν το μοντέλο να αντισταθεί σε υπερβολικό βαθμό σε μερικές περιπτώσεις και να είναι υπερβολικά συντηρητικό σε άλλες, με αποτέλεσμα να δημιουργούνται εικόνες που ήταν ντροπιαστικές και λανθασμένες».
Από την παραπάνω θέση αντιλαμβανόμαστε τη δυσκολία που υπάρχει ακόμα και στους δημιουργούς των πλατφορμών με βάση την τεχνητή νοημοσύνη να χτίσουν ένα περιβάλλον που θα δε περιθωριοποιήσει καμία φυλετική ομάδα ανθρώπων, αλλά ούτε θα δημιουργήσει και σύγχυση με την αντιπροσώπευση και περιγραφή ιστορικών γεγονότων, για να μην θίξει αντίστοιχα κοινότητες που σχετίζονται άμεσα με αυτά τα γεγονότα. Οι μηχανικοί και οι προγραμματιστές αυτών των λογισμικών πρέπει να λάβουν υπόψη τους τις διάφορες ιστορικές, κοινωνικές και πολιτισμικές λεπτομέρειες, ώστε να επιτύχουν μια περισσότερο αντικειμενική αλλά και αποτελεσματικότερη ψηφιακή πλατφόρμα επικοινωνίας με AI βοηθό.
Η τεχνητή νοημοσύνη σε οποιαδήποτε μορφή της οφείλει να κατέχει αρχές διαφορετικότητας και ισότητας για να εξασφαλίσει τη δικαιότερη και πιο αντιπροσωπευτική λειτουργία της. Αυτό μπορεί να περιλαμβάνει:
- Διαφορετικότητα: Η τεχνητή νοημοσύνη πρέπει να αναγνωρίζει, να σέβεται και να αντιμετωπίζει την ποικιλομορφία των ανθρώπων, συμπεριλαμβανομένων των διαφορετικών πολιτισμών, εθνοτήτων, φύλων, ηλικιών, εθνικοτήτων, αναπηριών και σεξουαλικών προτιμήσεων. Αλλά ταυτόχρονα να αναγνωρίζει τα ιστορικά γεγονότα με σκοπό να αποφθεχθούν οποιεσδήποτε ανακρίβειες.
- Ισότητα: Η τεχνητή νοημοσύνη πρέπει να προσφέρει ίσες ευκαιρίες και μεταχείριση για όλους τους ανθρώπους, ανεξαρτήτως της φυλής, του φύλου, της ηλικίας, της κοινωνικής τάξης ή άλλων παραμέτρων.
Πιο αναλυτικά, όσον αφορά τη διαφορετικότητα και τη συμπερίληψη κρίνεται απαραίτητη η παρουσία ορισμένων αρχών. Η αναγνώριση της διαφορετικότητας είναι κρίσιμη για την εξασφάλιση ότι οι τεχνολογίες τεχνητής νοημοσύνης λαμβάνουν υπόψη τις διαφορετικές ανάγκες, προτιμήσεις και δυνατότητες των χρηστών. Για παράδειγμα, ένα σύστημα αναγνώρισης φωνής πρέπει να είναι εκπαιδευμένο για να αναγνωρίζει διαφορετικούς τύπους φωνής και προφορές, καθώς και διαφορετικές γλωσσικές παραλλαγές.
Η ισότητα στην τεχνητή νοημοσύνη απαιτεί όχι μόνο την ίση πρόσβαση σε υπηρεσίες και πληροφορίες, αλλά και την ισότιμη μεταχείριση όλων των χρηστών. Αυτό σημαίνει ότι οι αλγόριθμοι και τα μοντέλα πρέπει να είναι δίκαια και διαφανή όσον αφορά τις αποφάσεις που λαμβάνουν. Παράδειγμα περιλαμβάνει τη διασφάλιση ότι ένα αναγνωριστικό σύστημα προσώπου δεν είναι προκατειλημμένο έναντι συγκεκριμένων φυλετικών ή εθνικών ομάδων.
Επιπλέον, κάτι που κρίνεται εξίσου απαραίτητο είναι, οι αρχές αυτές να είναι εφαρμόσιμες σε πολλούς τομείς που μπορεί να υπάρξει η τεχνητή νοημοσύνη, όπως η υγεία, η εκπαίδευση, η κοινωνική δικαιοσύνη, η πρόβλεψη των κινδύνων και άλλους. Για παράδειγμα, στην υγεία, η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για την παροχή εξατομικευμένης ιατρικής περίθαλψης, λαμβάνοντας υπόψη τις διαφορές στην υγεία και τις ανάγκες των ατόμων ανάλογα με το φύλο, την ηλικία και άλλους παράγοντες.
Τέλος, η εκπαίδευση και η ευαισθητοποίηση των ανθρώπων που ασχολούνται με την τεχνητή νοημοσύνη είναι σημαντική για την κατανόηση των αρχών διαφορετικότητας και ισότητας και την ενσωμάτωσή τους στην πρακτική και την ηθική λήψη αποφάσεων.
Κατανοώντας αυτές τις πτυχές, η τεχνητή νοημοσύνη μπορεί να προσφέρει πιο δίκαιες, διαφανείς και ανθρώπινες λύσεις που εξυπηρετούν τις ανάγκες και τις αξίες της κοινωνίας.
Πηγές:
https://blog.google/products/gemini/gemini-image-generation-issue/
https://www.bbc.com/news/technology-68412620
https://www.wired.com/story/google-rebrands-ai-chatbot-gemini/
Ονομάζομαι Στέλλα Φουλούλη και είμαι απόφοιτη του τμήματος ψυχολογίας στο Εθνικό και Καποδιστριακό Πανεπιστήμιο Αθηνών. Έχω ασχοληθεί στο παρελθόν με την αρθρογραφία και τα τελευταία δύο χρόνια ασχολούμαι με την ποίηση και τη φωτογραφία. Επιπρόσθετα την περίοδο αυτή εργάζεται εθελοντικά στο Ινστιτούτο Κυβερνοασφάλειας (CSIi) συμμετέχοντας σε δράσεις του ινστιτούτου και στη συγγραφή άρθρων.