Site icon Syrus

ChatGPT lo incolpa di un crimine che non ha commesso e chiede il risarcimento a OpenAI

ChatGPT lo diffama e lui chiede il risarcimento

Photo by Andrew Neel

Una prima denuncia per diffamazione è stata appena presentata contro OpenAI, la società che ha sviluppato ChatGPT, il popolarissimo chatbot di intelligenza artificiale generativa.

Mark Walters, un conduttore radiofonico americano, è rimasto scioccato nell’apprendere che ChatGPT aveva creato un falso caso che lo accusava di “frode e appropriazione indebita” di fondi dalla Second Amendment Foundation (SAF) per difendere il diritto alle armi!

Walters, amministratore delegato di CCW Broadcast Media che ospita un paio di programmi radiofonici pro-armi, afferma di essere stato vittima di una “allucinazione” dell’IA, quel fenomeno per cui chatbot come ChatGPT generano falsi eventi.

Il 4 maggio, a ChatGPT è stato chiesto da Fred Riehl, caporedattore dell’outlet pro-armi AmmoLand, di aiutarlo a riassumere il caso che coinvolge “The Second Amendment Foundation v. Robert Ferguson”. Il popolare chatbot ha immediatamente sputato fuori una risposta inventata di 30 pagine che implicava Walters nel caso e lo identificava come tesoriere e chief financial officer della SAF.

Walters tuttavia, non ha mai lavorato per la SAF e non ha mai avuto nulla a che fare con la causa. ChatGPT è andato completamente fuori di testa.

Quando ChatGPT e i suoi rivali inventano fatti

L’avvocato di Walters ne fa una questione di principio: “Sebbene la ricerca e lo sviluppo nel campo dell’intelligenza artificiale sia un’impresa lodevole, è irresponsabile rilasciare un sistema al pubblico sapendo che produce informazioni suscettibili di causare danni“.

Il caso sarà interessante da seguire per le questioni che solleva. Potrebbe, infatti, creare un precedente legale su come i tribunali valutano se le falsità generate da questi modelli linguistici siano o meno una forma di diffamazione.

Va anche notato che queste allucinazioni di ChatGPT e dei suoi concorrenti sono all’ordine del giorno. A volte basta insistere per ottenere informazioni su una persona o un fatto, perché l’IA inventi un risultato.

È successo in particolare a Brian Hood, sindaco australiano, che lo strumento OpenAI ha accusato ingiustamente di essere stato condannato a 30 mesi di reclusione per aver pagato tangenti, il che è totalmente falso.

Un altro esempio imbarazzante: recentemente ChatGPT ha falsamente accusato un professore di diritto americano includendolo in un elenco di giuristi colpevoli di molestie sessuali, citando un rapporto inesistente del Washington Post.

Il CEO di Google Sundar Pichai, la cui società ha rilasciato un rivale di ChatGPT chiamato Bard, ha messo in guardia contro il problema delle allucinazioni da parte dell’IA durante un’intervista della CBS “60 Minutes” ad aprile. Ha descritto scenari in cui i programmi di intelligenza artificiale di Google hanno sviluppato “proprietà emergenti” o hanno appreso abilità impreviste in cui non erano addestrati.

Il fenomeno delle “allucinazioni” evidenzia le richieste degli esperti per una maggiore regolamentazione governativa della tecnologia emergente. Anche Sam Altman, il CEO di OpenAI, ha chiesto al Parlamento di controllare l’intelligenza artificiale, perché potrebbe “fare molto male al mondo” se non vengono stabilite delle regole.

Ti consiglio di leggere anche…

ChatGPT: 6 dritte di OpenAI per ottenere risultati migliori

ChatGPT vs Bing Chat vs Google Bard: qual è il miglior chatbot AI?

IA generative: in che modo strumenti come ChatGPT e Midjourney influiranno sul nostro futuro?

Syrus

Exit mobile version