Non fidarti più di ChatGPT! L’intelligenza artificiale ha cambiato la vita di un uomo… in peggio
31/05/2023
Un avvocato un po’ troppo avido del suo tempo ha deciso di chiedere aiuto a ChatGPT e ha avuto una sorpresa inaspettata… L’intelligenza artificiale, infatti, può essere molto utile, ma se non viene utilizzata nel modo giusto, può anche avere esiti disastrosi…
Quando la pigrizia dà una bella lezione…
Dal rilascio pubblico di ChatGPT, la preoccupazione principale è stata se l’intelligenza artificiale possa sostituirci completamente. Sebbene molto utile, questa nuova tecnologia ci riserva ancora delle spiacevoli sorprese, come dimostra la storia che sto per raccontarti.
Secondo un articolo pubblicato dalla CNN, l’avvocato di New York Steven Schwartz ha chiesto a ChatGPT di redigere il fascicolo difensivo del suo cliente per un processo. Tuttavia, nulla è andato come previsto…
L’avvocato newyorkese, infatti, doveva difendere il cliente Roberto Mata, che aveva fatto causa alla compagnia aerea colombiana Avianca perché si era fatto male al ginocchio quando un carrello di servizio lo aveva colpito durante un volo di linea. Nel corso dell’udienza però, non sono sfuggite al giudice e allo stesso avvocato, alcune incongruenze.
L’avvocato aveva usato ChatGPT per fare delle ricerche su casi simili a quello del suo cliente e aveva presentato un documento in cui citava almeno una dozzina di casi giudiziari a sostegno della sua tesi, come “Varghese v. China Southern Airlines”, “Martinez v. Delta Airlines” e “Miller v. United Airlines”. Steven Schwartz si è reso conto solo troppo tardi che ChatGPT aveva inventato tutto di sana pianta!
Si è scoperto, infatti, che nessuno di questi casi era reale, nonostante il chatbot di OpenAI avesse assicurato che i casi erano tutti autentici e che si potevano trovare in “database legali affidabili” come Westlaw e LexisNexis. Ma l’avvocato della controparte non ci ha messo molto a sbugiardare ChatGPT.
ChatGPT (o l’essere umano?) inizia a mostrare i suoi limiti
Ancora una volta, ChatGPT ha dimostrato che, nonostante le sue numerose qualità, l’intelligenza artificiale richiede la supervisione umana. Come parte di questa causa, Steven Schwartz è stato costretto ad ammettere pubblicamente di aver utilizzato il chatbot. Pur affermando di non sapere usare correttamente il chatbot, ora l’uomo rischia possibili sanzioni legali.
Morale della favola: la pigrizia è il cuscino del diavolo, e ChatGPT non può e non deve sostituire l’essere umano.