TECNOLOGIA, INTERNET TRENDS, GAMING, BIG DATA

Come ridurre le allucinazioni dell’intelligenza artificiale

Come ridurre le allucinazioni dell’intelligenza artificiale

By fogliotiziana

Non ottieni la risposta che desideri da un chatbot AI? Potresti avere a che fare con un’allucinazione dell’intelligenza artificiale, un problema che si verifica quando il modello produce risultati imprecisi o irrilevanti.

È causato da vari fattori, come la qualità dei dati utilizzati per addestrare il modello, la mancanza di contesto o l’ambiguità del prompt. Fortunatamente, esistono tecniche che è possibile utilizzare per ottenere risultati più affidabili.

Le tecniche di prompt per ridurre le allucinazioni

Per ridurre le allucinazioni dei modelli di intelligenza artificiale, ci sono alcuni best practice da seguire, quali:

1. Fornire suggerimenti chiari e specifici

Il primo passo per ridurre al minimo le allucinazioni dell’IA è creare istruzioni chiare e altamente specifiche. Prompt vaghi o ambigui possono portare a risultati imprevedibili, poiché i modelli di intelligenza artificiale potrebbero tentare di interpretare l’intento dietro il prompt. Sii invece esplicito nelle tue istruzioni.

Invece di chiedere “Parlami dei cani“, potresti chiedere: “Dammi una descrizione dettagliata delle caratteristiche fisiche e del temperamento dei Golden Retriever“. Affinare il tuo prompt finché non diventa chiaro è un modo semplice per prevenire le allucinazioni dell’IA.

2. Usa la tecnica “Secondo…”

Una delle sfide legate all’utilizzo dei sistemi di intelligenza artificiale è che potrebbero generare risultati sostanzialmente errati, distorti o incoerenti con le tue opinioni o valori. Ciò può accadere perché i chatbot AI sono addestrati su set di dati ampi e diversificati che potrebbero contenere errori, opinioni o contraddizioni.

Per evitare ciò, è possibile utilizzare la tecnica del “secondo…”, che prevede l’attribuzione dell’output a una fonte o prospettiva specifica. Ad esempio, potresti chiedere al sistema di intelligenza artificiale di scrivere un fatto su un argomento secondo Wikipedia, Google Scholar o una specifica fonte accessibile al pubblico.

3. Utilizzare vincoli e regole

Vincoli e regole possono aiutare a impedire che il sistema di intelligenza artificiale generi risultati inappropriati, incoerenti, contraddittori o illogici. Possono anche aiutare a modellare e perfezionare l’output in base al risultato e allo scopo desiderati. Vincoli e regole possono essere esplicitamente dichiarati nel prompt o implicitamente impliciti nel contesto o nell’attività.

Supponiamo che tu voglia utilizzare uno strumento di intelligenza artificiale per scrivere una poesia sull’amore. Invece di dare un suggerimento generico come “scrivi una poesia sull’amore“, puoi dargli un suggerimento più vincolato e basato su regole come “scrivi un sonetto sull’amore con 14 versi e 10 sillabe per verso“.

4. Suddividere la richiesta in più passaggi

A volte, domande complesse possono portare ad allucinazioni dell’IA perché il modello tenta di rispondere in un unico passaggio. Per superare questo problema, suddividi le tue domande in più passaggi.

Ad esempio, invece di chiedere: “Qual è il trattamento per il diabete più efficace?” puoi chiedere: “Quali sono i trattamenti comuni per il diabete?” Puoi quindi proseguire con “Quale di questi trattamenti è considerato il più efficace secondo gli studi medici?

I prompt in più fasi costringono il modello di intelligenza artificiale a fornire informazioni intermedie prima di arrivare a una risposta finale, il che può portare a risposte più accurate e precise.

5. Assegnare il ruolo all’IA

Quando assegni un ruolo specifico al modello AI nel tuo prompt, ne chiarisci lo scopo e riduci la probabilità di allucinazioni. Ad esempio, invece di dire “Parlami della storia della meccanica quantistica“, puoi chiedere all’intelligenza artificiale: “Assumi il ruolo di un ricercatore diligente e fornisci un riepilogo delle pietre miliari chiave nella storia della meccanica quantistica“.

Questa prospettiva incoraggia l’intelligenza artificiale ad agire come un ricercatore diligente piuttosto che come un narratore speculativo.

6. Aggiungi informazioni contestuali

Non fornire informazioni contestuali quando necessario è un errore immediato da evitare quando si utilizza ChatGPT o altri modelli di intelligenza artificiale. Le informazioni contestuali aiutano il modello a comprendere il background, l’ambito o lo scopo dell’attività e a generare output più pertinenti e coerenti. Le informazioni contestuali includono parole chiave, tag, categorie, esempi, riferimenti e fonti.

Ad esempio, se desideri generare una recensione di prodotto per un paio di cuffie, puoi fornire informazioni contestuali, come nome del prodotto, marca, caratteristiche, prezzo, valutazione o feedback dei clienti.

Può essere frustrante quando non ricevi il feedback che ti aspetti da un modello di intelligenza artificiale. Tuttavia, utilizzando queste tecniche di prompt puoi ridurre la probabilità di allucinazioni e ottenere risposte migliori e più affidabili.

Tieni presente che queste tecniche non sono infallibili e potrebbero non funzionare per ogni attività o argomento. Dovresti sempre controllare e verificare gli output dell’IA prima di utilizzarli per qualsiasi scopo serio.

%d