Μεταφράζει η Χρυσάνθη Παράγιου
Παρόλο που ορισμένοι εργαζόμενοι αποφεύγουν τη βοήθεια του εν λόγω chatbot, πολλές πλατφόρμες υιοθετούν πολιτικές ή τεχνολογία για να αποτρέψουν τη χρήση της τεχνητής νοημοσύνης – πιθανώς καθιστώντας την εργασία πλήθους πιο δύσκολη.
Οφείλουμε την κατανόηση της ανθρώπινης συμπεριφοράς, εν μέρει, στον Μπομπ. Ξοδεύει κάποιες μέρες και ώρες ως υποκείμενο σε ακαδημαϊκές μελέτες ψυχολογίας, συμπληρώνοντας έρευνες σε πλατφόρμες εργασίας πλήθους, όπως το Mechanical Turk της Amazon, όπου οι χρήστες εκτελούν απλές ψηφιακές εργασίες για μικρά χρηματικά ποσά. Τα ερωτηματολόγια συχνά τον προτρέπουν να θυμηθεί μια φορά που ένιωσε θλίψη, ή απομόνωση, ή κάτι αντίστοιχα θλιβερό. Μερικές φορές το να πληκτρολογεί τις θλιβερές ιστορίες του ξανά και ξανά γίνεται “πραγματικά πολύ μονότονο”, σύμφωνα με τον ίδιο. Έτσι, ο Μπομπ ζητάει από το ChatGPT να «μιλήσει για τα δικά του συναισθήματα».
Ο Μπομπ, ο οποίος χρησιμοποίησε ψευδώνυμο επειδή φοβάται ότι θα ανασταλεί ο λογαριασμός του, λέει ότι σέβεται την έρευνα στην οποία συμβάλλει, αλλά δεν διαφωνεί ιδιαίτερα με τη χρήση περιστασιακής βοήθειας από την τεχνητή νοημοσύνη. Οι προτροπές φαίνεται να αποσκοπούν στην εγκαθίδρυση μιας συγκεκριμένης διάθεσης για τη δημιουργία μεταγενέστερων ερωτήσεων και “μπορώ να μπω σε αυτή τη νοοτροπία”, λέει. Επιπλέον, ο Μπομπ πρέπει να είναι αποτελεσματικός επειδή συντηρείται οικονομικά από την εργασία του πλήθους, συμπληρώνοντας μερικές φορές 20 έρευνες σε μία μόνο ημέρα, παράλληλα με άλλες μικροεργασίες, όπως η εκπαίδευση chatbots. Μια μελέτη του 2018 υπολόγισε ότι οι crowdworkers (αυτοί που συμπληρώνουν αυτά τα ερωτηματολόγια) κερδίζουν κατά μέσο όρο 2 δολάρια την ώρα, συμπεριλαμβανομένου του χρόνου που δαπανάται για την εύρεση εργασιών, αν και ο Μπομπ κερδίζει σημαντικά περισσότερα.
Φοιτητές, υπάλληλοι γραφείου και προγραμματιστές στρέφονται σε εργαλεία δημιουργικής τεχνητής νοημοσύνης, όπως το ChatGPT, για να βελτιστοποιήσουν την εργασία τους με τρόπους που έχουν προκαλέσει τόσο επαίνους όσο και καχυποψία. Οι crowdworkers είναι η πιο πρόσφατη ομάδα που αντιμετωπίζει κατηγορίες ότι χρησιμοποιεί μεγάλα γλωσσικά μοντέλα ως συντομότερη λύση. Ορισμένες πλατφόρμες υιοθετούν τώρα πολιτικές ή τεχνολογίες, που αποσκοπούν στην αποτροπή ή τον εντοπισμό της χρήσης μεγάλων γλωσσικών μοντέλων, όπως το ChatGPT, αν και ορισμένοι crowd workers και ερευνητές λένε ότι χρειάζεται προσοχή για να αποφευχθεί η άδικη επιβάρυνση των εργαζομένων που ήδη αντιμετωπίζουν επισφάλεια.
Μια προκαταρκτική μελέτη από ακαδημαϊκούς του Ελβετικού Ομοσπονδιακού Ινστιτούτου Τεχνολογίας έγινε ιδιαίτερα δημοφιλής τον περασμένο μήνα, αφού εκτιμήθηκε ότι πάνω από το ένα τρίτο των απασχολούμενων στο Mechanical Turk είχαν χρησιμοποιήσει το ChatGPT, για να ολοκληρώσουν μια εργασία περίληψης κειμένου, που αποσκοπούσε στη μέτρηση της ανθρώπινης κατανόησης. Ο ισχυρισμός της ότι οι crowd workers χρησιμοποιούν ευρέως μεγάλα γλωσσικά μοντέλα, ενέπνευσε ορισμένους εργαζόμενους και ερευνητές να αντιδράσουν, υπερασπιζόμενοι την τιμή των crowd workers και λέγοντας ότι σαφέστερες οδηγίες θα μπορούσαν να περιορίσουν το πρόβλημα.
Η CloudResearch, μια εταιρεία που βοηθά τους ερευνητές να προσλαμβάνουν συμμετέχοντες σε διαδικτυακές μελέτες, διεξήγαγε τη δική της εκδοχή της μελέτης και διαπίστωσε ότι οι προεπιλεγμένοι εργαζόμενοί της χρησιμοποίησαν το ChatGPT μόνο το ένα πέμπτο του χρόνου. Η χρήση σχεδόν εξαφανίστηκε εντελώς όταν η εταιρεία ζήτησε από τους ανθρώπους να μην χρησιμοποιήσουν την τεχνητή νοημοσύνη, λέει ο συνιδρυτής και επικεφαλής της έρευνας Leib Litman.
Μια εργαζόμενη στα πενήντα της που δραστηριοποιείται σε μια διαδικτυακή κοινότητα του Mechaniczl Turk, λέει ότι πολλοί από αυτούς δεν θα μπορούσαν ούτε να διανοηθούν να εξαπατήσουν. “Οι άνθρωποι που γνωρίζω έχουν ακεραιότητα μέχρις εσχάτων”, λέει. Η εργασία πλήθους μπορεί να αποτελέσει καταφύγιο για ανθρώπους, που τους αρέσει να οργανώνουν την εργασία με τους δικούς τους όρους, λέει, όπως οι εσωστρεφείς ή οι νευροδιαφοροποιημένοι (neurodivergent) άνθρωποι. “Δεν θα ονειρεύονταν να χρησιμοποιήσουν το ChatGPT για να γράψουν μια περίληψη, γιατί θα ήταν εξαιρετικά μη ικανοποιητικό “, λέει η εργαζόμενη, στην οποία και αρέσει η εργασία αυτού του είδους, ως ένας τρόπος να αποφύγει τις ηλικιακές διακρίσεις. Μια άλλη εργαζόμενη λέει στο WIRED ότι κατάφερε να συντηρήσει τον εαυτό της από το Mechanical Turk, όταν μια ασθένεια την περιόρισε στο να εργάζεται από το σπίτι. Δεν θα ήθελε να διακινδυνεύσει να χάσει το εισόδημά της, λόγω αναστολής του λογαριασμού της.
Ενώ ορισμένοι εργαζόμενοι μπορεί να αποφεύγουν την τεχνητή νοημοσύνη, ο πειρασμός να τη χρησιμοποιήσουν είναι πολύ πραγματικός για άλλους. Ο τομέας μπορεί να είναι πολύ ανταγωνιστικός σύμφωνα με τον Μπομπ, γεγονός που καθιστά ελκυστικά τα εργαλεία εξοικονόμησης εργασίας. Για να βρουν τις καλύτερα αμειβόμενες συναυλίες, οι εργαζόμενοι χρησιμοποιούν συχνά σενάρια που επισημαίνουν επικερδείς εργασίες, σαρώνουν τις αξιολογήσεις των αιτούντων εργασιών ή συμμετέχουν σε πλατφόρμες με καλύτερες αμοιβές που ελέγχουν τους εργαζόμενους και τους αιτούντες.
Η CloudResearch άρχισε να αναπτύσσει έναν εσωτερικό ανιχνευτή ChatGPT πέρυσι, αφού οι ιδρυτές της είδαν τη δυνατότητα της τεχνολογίας να υπονομεύσει την επιχείρησή τους. Ο συνιδρυτής και Τεχνικός Διευθυντής Jonathan Robinson, λέει ότι το εργαλείο περιλαμβάνει την καταγραφή των πατημάτων πλήκτρων, την υποβολή ερωτήσεων στις οποίες το ChatGPT ανταποκρίνεται διαφορετικά από τους ανθρώπους, και τη διασύνδεση ανθρώπων για την εξέταση των απαντήσεων κειμένου ελεύθερης μορφής.
Άλλοι υποστηρίζουν ότι οι ερευνητές θα πρέπει να αναλάβουν οι ίδιοι να εδραιώσουν την εμπιστοσύνη. Ο Justin Sulik, ερευνητής γνωστικής επιστήμης στο Πανεπιστήμιο του Μονάχου, ο οποίος χρησιμοποιεί την CloudResearch για την εύρεση συμμετεχόντων, λέει ότι η βασική αξιοπρέπεια – δίκαιη αμοιβή και ειλικρινής επικοινωνία – είναι πολύ σημαντική. Εάν οι εργαζόμενοι εμπιστεύονται ότι θα πληρωθούν, οι αιτούντες θα μπορούσαν απλώς να ρωτήσουν στο τέλος μιας έρευνας εάν ο συμμετέχων χρησιμοποίησε το ChatGPT. “Νομίζω ότι οι διαδικτυακοί εργαζόμενοι κατηγορούνται άδικα επειδή κάνουν πράγματα, που οι εργαζόμενοι σε γραφεία και οι ακαδημαϊκοί μπορεί να κάνουν συνεχώς, δηλαδή απλώς να κάνουν τις δικές μας ροές εργασίας πιο αποτελεσματικές”, λέει ο Sulik.
Ο Ali Alkhatib, ερευνητής κοινωνικής πληροφορικής, προτείνει ότι θα ήταν πιο παραγωγικό να εξετάσουμε πώς η χαμηλή αμοιβή των crowd workers θα μπορούσε να αποτελέσει κίνητρο για τη χρήση εργαλείων, όπως το ChatGPT. “Οι ερευνητές πρέπει να δημιουργήσουν ένα περιβάλλον που να επιτρέπει στους εργαζόμενους να αφιερώνουν χρόνο και να είναι πραγματικά στοχαστικοί”, λέει. Ο Alkhatib αναφέρει εργασίες ερευνητών του Στάνφορντ που ανέπτυξαν μια γραμμή κώδικα, που παρακολουθεί πόσο χρόνο διαρκεί μια μικροεργασία, ώστε οι αιτούντες να μπορούν να υπολογίσουν, πώς να πληρώσουν έναν κατώτατο μισθό.
Ο δημιουργικός σχεδιασμός της μελέτης μπορεί επίσης να βοηθήσει. Όταν ο Sulik και οι συνεργάτες του θέλησαν να μετρήσουν την ψευδαίσθηση της τυχαιότητας, την πεποίθηση στην αιτιώδη σχέση μεταξύ άσχετων γεγονότων, ζήτησαν από τους συμμετέχοντες να μετακινήσουν ένα ποντίκι καρτούν σε ένα πλέγμα και στη συνέχεια να μαντέψουν με ποιους κανόνες κέρδισαν το τυρί. Όσοι ήταν επιρρεπείς στην ψευδαίσθηση επέλεγαν περισσότερους υποθετικούς κανόνες. Μέρος της πρόθεσης του σχεδιασμού ήταν να κρατήσει τα πράγματα ενδιαφέροντα, λέει ο Sulik, έτσι ώστε οι διάφοροι «Μπομπ» του κόσμου να μην χάσουν τη φόρμα τους. “Και κανείς δεν πρόκειται να εκπαιδεύσει ένα μοντέλο τεχνητής νοημοσύνης μόνο και μόνο για να παίξει το δικό σας συγκεκριμένο παιχνιδάκι”.
Η υποψία που εμπνέεται από το ChatGPT θα μπορούσε να κάνει τα πράγματα πιο δύσκολα για τους εν λόγω εργαζόμενους, οι οποίοι πρέπει ήδη να προσέχουν τις απάτες phishing που συλλέγουν προσωπικά δεδομένα μέσω ψεύτικων εργασιών κάνοντάς τους να ξοδεύουν απλήρωτο χρόνο πραγματοποιώντας τεστ προσόντων. Μετά την αύξηση των δεδομένων χαμηλής ποιότητας το 2018 – που οφείλονταν σε ενέργειες bots κι όχι ανθρώπων- που προκάλεσε πανικό στο Mechanical Turk, αυξήθηκε η ζήτηση για εργαλεία επιτήρησης για να διασφαλιστεί ότι οι εργαζόμενοι ήταν αυτοί που ισχυρίζονταν ότι ήταν.
Ο Phelim Bradley, διευθύνων σύμβουλος της Prolific, μιας πλατφόρμας εργασίας πλήθους με έδρα το Ηνωμένο Βασίλειο, που ελέγχει τους συμμετέχοντες και τους αιτούντες, λέει ότι η εταιρεία του έχει αρχίσει να εργάζεται πάνω σε ένα προϊόν για τον εντοπισμό των χρηστών ChatGPT και είτε να τους εκπαιδεύει είτε να τους απομακρύνει. Πρέπει όμως να παραμείνει εντός των ορίων των νόμων περί προστασίας της ιδιωτικής ζωής του Γενικού Κανονισμού Προστασίας Δεδομένων της ΕΕ. Ορισμένα εργαλεία ανίχνευσης “θα μπορούσαν να είναι αρκετά επεμβατικά αν δεν εκτελούνται με τη συγκατάθεση των συμμετεχόντων”, λέει.
Οι ανιχνευτές μπορεί επίσης να είναι ανακριβείς και μπορεί να γίνουν λιγότερο αποτελεσματικοί, καθώς οι γεννήτριες κειμένου βελτιώνονται συνεχώς. Δημοφιλή εργαλεία, όπως αυτό που προσφέρεται από την νεοσύστατη εταιρεία GPTZero, συχνά αποτυγχάνουν να αναγνωρίσουν σωστά το κείμενο, που έχει γραφτεί με τεχνητή νοημοσύνη και τα ψευδώς θετικά αποτελέσματα ενέχουν τον κίνδυνο να επιφέρουν ποινές σε έντιμους εργαζόμενους. Οι Ελβετοί ακαδημαϊκοί, που βρίσκονται πίσω από την πρόσφατη δημοφιλή μελέτη σχετικά με τους crowd workers και το ChatGPT, διαπίστωσαν ότι ένας έτοιμος ανιχνευτής είχε ανεπαρκή απόδοση κι αντ’ αυτού δημιούργησαν το δικό τους σύστημα για τον εντοπισμό της χρήσης του ChatGPT που περιλάμβανε καταγραφή πληκτρολόγησης, η οποία, όπως αναγνώρισαν, “θα μπορούσε ενδεχομένως να παραβιάσει την ιδιωτικότητα των χρηστών, αν δεν αντιμετωπιστεί κατάλληλα”.
Η καχυποψία ή η αβεβαιότητα σχετικά με τους crowd workers που απευθύνονται στην τεχνητή νοημοσύνη για βοήθεια θα μπορούσε ακόμη και να προκαλέσει μείωση του όγκου της εργασίας του πλήθους. Ο Veniamin Veselovsky, ερευνητής που συνυπογράφει την ελβετική μελέτη, λέει ότι ο ίδιος και άλλοι επανεξετάζουν τους τύπους των μελετών που διεξάγουν στο διαδίκτυο. “Υπάρχει ένα ολόκληρο φάσμα πειραμάτων που δεν μπορούμε πλέον να διεξάγουμε στο Mechanical Turk”, λέει.
Ο Gabriel Lenz, καθηγητής πολιτικών επιστημών στο UC Berkeley που διεξάγει έρευνες στην πλατφόρμα, είναι πιο αισιόδοξος. Όπως και οι περισσότερες μελέτες, οι δικές του περιλαμβάνουν ερωτήσεις που έχουν σχεδιαστεί για να πιάσουν τους συμμετέχοντες που δεν δίνουν προσοχή ή που δίνουν ασυνεπείς απαντήσεις σε βασικές ερωτήσεις, και φαντάζεται ότι θα εξελιχθούν εργαλεία για τη σύλληψη χρηστών μεγάλων γλωσσικών μοντέλων, όπως η υδατογράφηση.
Συνήθως η απάτη δημιουργεί απλώς παρεμβολές που μπορούν να φιλτραριστούν από μια μελέτη, λέει ο Lenz. Αλλά, αν οι απατεώνες που χρησιμοποιούν τεχνητή νοημοσύνη παράγουν δεδομένα, που ικανοποιούν αυτό που αναζητά ένας ερευνητής, οι μελέτες μπορεί να χρειαστεί να επανασχεδιαστούν ή να διεξαχθούν στην πραγματική ζωή κι όχι στο διαδίκτυο. Πέρυσι οι ερευνητές ανακάλυψαν ότι οι ευρέως διαδεδομένοι ισχυρισμοί σχετικά με την υποστήριξη της πολιτικής βίας από τους Αμερικανούς φάνηκε να είναι υπερβολικά υπερτιμημένοι, εν μέρει λόγω ενός σχεδιασμού έρευνας, που δεν λάμβανε υπόψη τυχαία κλικ από συμμετέχοντες που είχαν βαρεθεί.
Οι συνέπειες της αποτυχίας να συλληφθεί η εξαπάτηση με τη βοήθεια της τεχνητής νοημοσύνης μπορεί να είναι σημαντικές. Τα λανθασμένα δεδομένα θα μπορούσαν να διαστρεβλώσουν την κατανόησή μας για τον κόσμο με το να εισέλθουν σε δημοσιευμένες έρευνες, ή ακόμη και να παραμορφώσουν μελλοντικά συστήματα τεχνητής νοημοσύνης, τα οποία συχνά δημιουργούνται χρησιμοποιώντας δεδομένα από εργασίες πλήθους που υποτίθεται ότι είναι ακριβή. Η λύση μπορεί να βρίσκεται σε μεγάλο βαθμό στον ανθρώπινο τομέα. “Η οικοδόμηση εμπιστοσύνης είναι πολύ πιο απλούστερη από το να εμπλακούμε σε έναν αγώνα εξοπλισμών τεχνητής νοημοσύνης με πιο εξελιγμένους αλγορίθμους για την ανίχνευση όλο και πιο εξελιγμένων κειμένων που δημιουργούνται από τεχνητή νοημοσύνη”, λέει ο Sulik.
Πηγή:
https://www.wired.com/story/chatgpt-is-reshaping-crowd-work/
Η εθελοντική ομάδα του CSI Institute, αποτελούμενη από εξειδικευμένους επιστήμονες όπως, ψυχολόγους, εγκληματολόγους, κοινωνιολόγους καθώς και τεχνικούς δικτύων & πληροφορικής, είναι κοντά σας παρέχοντας πληροφορία, ενημέρωση και γνώση μέσα από ποικίλα θέματα αρθρογραφίας.