L’avvento di GPT-4 e il rischio delle armi biologiche
05/02/2024
L‘intelligenza artificiale è diventata una parte essenziale della nostra società moderna, con applicazioni che spaziano dalla robotica all’assistenza sanitaria. Tuttavia, con ogni nuova tecnologia emergente, sorgono preoccupazioni legate ai rischi potenziali che potrebbe comportare. Un recente studio di OpenAI, azienda leader nella ricerca sull’IA, ha sollevato interrogativi sul pericolo che il loro potente software di AI, GPT-4, possa facilitare la creazione di un’arma biologica.
Il potere di GPT-4 e le preoccupazioni sulle armi biologiche
GPT-4 è considerato uno dei software AI più avanzati al mondo, in grado di generare testi di alta qualità e comprensibili. OpenAI, tuttavia, ha sottolineato che l’utilizzo di questo software potrebbe comportare un “rischio minimo” nell’aiutare qualcuno a creare una minaccia biologica. Nel loro studio, OpenAI ha creato un “tripwire” per identificare se l’accesso a GPT-4 possa facilitare l’accesso a informazioni che consentirebbero a qualcuno di commettere atti di bioterrorismo, come l’ingegneria e la diffusione di un virus mortale.
L’obiettivo di OpenAI con il loro “Preparedness Framework” è quello di proteggere la società da minacce alimentate dall’IA, ma il rischio associato all’utilizzo di GPT-4 è ancora una questione di dibattito. C’è preoccupazione che le potenzialità di generazione di testi di GPT-4 possano fornire informazioni dettagliate su come creare armi biologiche, alimentando il rischio di attacchi terroristici o di bioterrorismo.
La risposta di OpenAI ai dubbi dei legislatori
OpenAI ha risposto alle preoccupazioni sollevate dai legislatori statunitensi sulla potenziale minaccia rappresentata dalla loro tecnologia di AI. L’azienda ha cercato di rassicurare il pubblico spiegando che i loro modelli di linguaggio di AI offrono solo un “rischio minimo” e che le informazioni necessarie per creare una bioweaopon sono già facilmente accessibili online, anche senza l’uso di AI.
Tuttavia, alcuni esperti hanno sollevato dubbi sulla validità di questa risposta. Uno studio condotto da scienziati di Harvard e MIT ha suggerito che i chatbot potenziati da AI potrebbero contribuire a causare pandemie se non vengono adeguatamente controllati. Pertanto, è necessario un approccio equilibrato per affrontare le minacce potenziali associate all’utilizzo di GPT-4 e di altre tecnologie di AI avanzate.
L’Accesso a Informazioni Pericolose senza AI
Un punto importante emerso dallo studio di OpenAI è che l’accesso a informazioni pericolose relative alla biotecnologia è già relativamente facile, anche senza l’uso di AI. Le risorse online e i database contengono più contenuti pericolosi di quanto si pensasse inizialmente. Tuttavia, va sottolineato che la bioterrorismo rimane ancora una pratica rara. Un altro studio condotto dal Center for Security and Emerging Technology dell’Università di Georgetown ha confermato che il rischio di biorischio esiste già anche senza l’AI, anche se alcuni strumenti di AI possono colmare il vuoto lasciato dalle fonti non-AI nello sviluppo di armi biologiche.