L’intelligenza artificiale generativa e il suo ruolo nella disinformazione moderna

26/09/2023
La disinformazione mediatica non è una novità. Nell’era del sovraccarico di informazioni, assume semplicemente un’altra dimensione a causa della molteplicità dei canali informativi disponibili. Il recente arrivo dell’intelligenza artificiale generativa non ha fatto altro che complicare la situazione. Qual è la percezione degli esperti del settore su questo argomento? Cosa dicono realmente i dati su questo fenomeno?
Disinformazione amplificata dall’intelligenza artificiale
Secondo uno studio condotto dalla società Security.org, il 90% degli americani interrogati verfica le informazioni che legge. Il 96% vuole evitare la diffusione di fake news. Piuttosto rassicurante, ma questo tipo di dati freddi non sono particolarmente rappresentativi della realtà, che è molto più complessa.
Sarah Brandt è vicepresidente delle partnership presso NewsGuard, una società di media e disinformazione. Secondo lei, la creazione e la diffusione di informazioni distorte è diventata molto più semplice grazie all’intelligenza artificiale generativa. Un esempio molto recente di possibili abusi è quello del caso The Irish Times.
Non si tratta solo di parole, poiché Newsguard ha le cifre per dimostrare questa affermazione. A maggio, la società ha identificato 49 siti diversi che diffondevano contenuti potenzialmente scritti dall’intelligenza artificiale. La situazione non sta migliorando poiché Newsguard ne ha individuati altre centinaia da allora. Contenuti scritti che presentano fatti difficili da verificare.
Newsguard ha recentemente esaminato Bard e ChatGPT e ha concluso che questi due modelli erano molto inclini a generare informazioni false. Piuttosto preoccupante quando conosciamo il successo di questi due programmi.
Soluzioni emergenti, ma sufficienti?
Vista l’importanza del fenomeno, i principali player del settore sono alla ricerca di soluzioni. Possiamo citare ad esempio Adobe, che ha integrato misure di protezione nelle sue soluzioni basate sull’intelligenza artificiale generativa.
Content Authenticity Initiative è un’associazione che Adobe ha fondato in collaborazione con il New York Times e Twitter nel 2019. Il suo obiettivo è stabilire standard per la tracciabilità dei contenuti online per frenare la proliferazione della disinformazione. Anche se l’iniziativa è apprezzabile, al momento è molto difficile dire che sia efficace.
Sarah Brandt, dal canto suo, sembra piuttosto ottimista. Lei giustifica questa posizione spiegando che le aziende che sviluppano l’intelligenza artificiale generativa saranno spinte a sviluppare i loro strumenti in modo più etico se verranno formulati Sanzioni governative, incentivi fiscali o la creazione di partenariati preferenziali, ad esempio.
L’intelligenza artificiale rappresenta un punto cardine in un vasto processo di transizione verso un nuovo paradigma globale. In questo contesto, tale tecnologia comporta tanti vantaggi quanto svantaggi, persino pericoli. La disinformazione è una di queste e non esiste una soluzione miracolosa. I politici e gli attori privati del settore dell’AI devono lavorare fianco a fianco per trovare il giusto equilibrio e contribuire a limitare gli usi problematici.