Κοινωνία, Τεχνολογία

ChatGPT: Ένας δικηγόρος της Νέας Υόρκης βρίσκεται αντιμέτωπος με δική του δικαστική ακρόαση, αφού η εταιρεία του χρησιμοποίησε το εργαλείο τεχνητής νοημοσύνης ChatGPT για νομική έρευνα

Μεταφράζει η Χρυσάνθη Παράγιου, φοιτήτρια Ψυχολογίας

Ένας δικαστής δήλωσε ότι το δικαστήριο βρέθηκε αντιμέτωπο με μια “πρωτοφανή περίσταση”, αφού διαπιστώθηκε ότι μια κατάθεση αναφερόταν σε παραδείγματα νομικών υποθέσεων που δεν υπήρχαν. Ο δικηγόρος που χρησιμοποίησε το εργαλείο δήλωσε στο δικαστήριο ότι “δεν γνώριζε ότι το περιεχόμενό του θα μπορούσε να είναι ψευδές”. Το ChatGPT δημιουργεί πρωτότυπο κείμενο κατόπιν αιτήματος, αλλά συνοδεύεται από προειδοποιήσεις ότι μπορεί να “παράγει ανακριβείς πληροφορίες”.

Η αρχική υπόθεση αφορούσε έναν άνδρα που μήνυσε μια αεροπορική εταιρεία για έναν υποτιθέμενο προσωπικό τραυματισμό. Η νομική του ομάδα υπέβαλε υπόμνημα που παρέπεμπε σε διάφορες προηγούμενες δικαστικές υποθέσεις σε μια προσπάθεια να αποδείξει, χρησιμοποιώντας δεδικασμένο, γιατί η υπόθεση θα έπρεπε να προχωρήσει. Αλλά οι δικηγόροι της αεροπορικής εταιρείας έγραψαν αργότερα στον δικαστή για να του πουν ότι δεν μπορούσαν να βρουν αρκετές από τις υποθέσεις που αναφέρονταν στο υπόμνημα.

“Έξι από τις υποβληθείσες υποθέσεις φαίνεται να είναι ψεύτικες δικαστικές αποφάσεις με ψεύτικα παραθέματα και ψεύτικες εσωτερικές παραπομπές”, έγραψε ο δικαστής Castel σε μια διαταγή που απαιτούσε από τη νομική ομάδα του άνδρα να δώσει εξηγήσεις. Κατά τη διάρκεια αρκετών καταθέσεων, προέκυψε ότι η έρευνα δεν είχε εκπονηθεί από τον Peter LoDuca, τον δικηγόρο του ενάγοντος, αλλά από έναν συνάδελφό του στην ίδια δικηγορική εταιρεία. Ο Steven A Schwartz, ο οποίος είναι δικηγόρος για περισσότερα από 30 χρόνια, χρησιμοποίησε το ChatGPT για να αναζητήσει παρόμοιες προηγούμενες υποθέσεις.

Στη γραπτή δήλωσή του, ο Schwartz διευκρίνισε ότι ο LoDuca δεν είχε συμμετάσχει στην έρευνα και δεν γνώριζε τον τρόπο διεξαγωγής της. Ο Schwartz πρόσθεσε ότι “λυπάται πολύ” που βασίστηκε στο chatbot, το οποίο, όπως είπε, δεν είχε χρησιμοποιήσει ποτέ στο παρελθόν για νομική έρευνα και “δεν γνώριζε ότι το περιεχόμενό του θα μπορούσε να είναι ψευδές”. Ορκίστηκε να μην χρησιμοποιήσει ποτέ στο μέλλον τεχνητή νοημοσύνη για να “συμπληρώσει” τη νομική του έρευνα “χωρίς απόλυτη επαλήθευση της αυθεντικότητάς της”.

Τα στιγμιότυπα οθόνης που επισυνάπτονται στην κατάθεση φαίνεται να δείχνουν μια συνομιλία μεταξύ του κ. Schwarz και του ChatGPT. “Είναι η υπόθεση Varghese, μια αληθινή υπόθεση;”, γράφει ένα μήνυμα, αναφερόμενο σε μία από τις υποθέσεις που κανένας άλλος δικηγόρος δεν μπόρεσε να βρει. Το ChatGPT απαντά ότι ναι, είναι – με αποτέλεσμα ο δικηγόρος να ρωτήσει: “Ποια είναι η πηγή σας;”. Μετά από “διπλό έλεγχο”, το ChatGPT απαντά και πάλι ότι η υπόθεση είναι πραγματική και μπορεί να βρεθεί σε βάσεις νομικών αναφορών, όπως οι LexisNexis και Westlaw. Ισχυρίστηκε επίσης ότι και οι άλλες υποθέσεις που έχει παράσχει στον Schwartz είναι εξίσου πραγματικές. Και οι δύο δικηγόροι, οι οποίοι εργάζονται για την εταιρεία Levidow, Levidow & Oberman, κλήθηκαν να εξηγήσουν γιατί δεν πρέπει να τους επιβληθεί πειθαρχική ποινή σε ακρόαση στις 8 Ιουνίου.

Εκατομμύρια άνθρωποι έχουν χρησιμοποιήσει το ChatGPT από τότε που ξεκίνησε τον Νοέμβριο του 2022. Μπορεί να απαντήσει σε ερωτήσεις σε φυσική, ανθρώπινη γλώσσα και μπορεί επίσης να μιμηθεί άλλα στυλ γραφής. Χρησιμοποιεί ως βάση δεδομένων το διαδίκτυο όπως ήταν το 2021. Υπήρξαν ανησυχίες σχετικά με τους πιθανούς κινδύνους της τεχνητής νοημοσύνης (AI), συμπεριλαμβανομένης της πιθανής διάδοσης παραπληροφόρησης και προκατάληψης.

 

Πηγή:

https://www.bbc.com/news/world-us-canada-65735769