OpenAI rivede politica di utilizzo per fini militari
17/01/2024
OpenAI ha recentemente apportato modifiche alla sua politica di utilizzo, eliminando esplicitamente il divieto di utilizzare la propria tecnologia per scopi “militari e bellici“. Questo cambiamento viene osservato da vicino, soprattutto considerando l’interesse crescente delle agenzie militari di tutto il mondo nell’utilizzo dell’intelligenza artificiale (AI). Tuttavia, le implicazioni reali di questa modifica devono ancora essere valutate.
La politica di utilizzo di OpenAI
In passato, la politica di utilizzo di OpenAI proibiva esplicitamente l’utilizzo dei suoi modelli di linguaggio per scopi che potessero causare danni o per sviluppare armi. Tuttavia, la menzione specifica di “militari e bellici” è stata rimossa dalla lista dei divieti. Questo lascia intendere che OpenAI potrebbe ora collaborare con agenzie governative, come il Dipartimento della Difesa, che solitamente offrono accordi vantaggiosi a imprese esterne.
L’interesse delle agenzie militari nell’AI
L’interesse delle agenzie militari nell’intelligenza artificiale è in aumento e il cambiamento nella politica di utilizzo di OpenAI sembra rispecchiarlo. Tuttavia, è importante sottolineare che attualmente OpenAI non dispone di un prodotto che possa causare direttamente danni fisici o uccidere qualcuno. La sua tecnologia potrebbe essere utilizzata per scopi come la scrittura di codice e l’elaborazione di ordini di approvvigionamento per oggetti che potrebbero essere utilizzati per fini bellici.
Sarah Myers West, direttrice esecutiva dell’AI Now Institute, ha osservato che la rimozione delle parole “militari e bellici” dalla politica di utilizzo di OpenAI è un momento significativo, considerando l’utilizzo dei sistemi di intelligenza artificiale nel mirare i civili a Gaza. Questa modifica potrebbe sollevare preoccupazioni sul coinvolgimento di OpenAI in progetti che potrebbero causare danni o violare i diritti umani.
Le motivazioni di OpenAI
Quando interrogato sulla modifica della politica di utilizzo, il portavoce di OpenAI, Niko Felix, ha dichiarato che l’azienda mira a creare principi universali che siano facili da ricordare e applicare, soprattutto considerando l’ampio utilizzo delle loro tecnologie da parte degli utenti comuni che possono anche costruire modelli di linguaggio generativi (GPT).
Felix ha sottolineato il principio generale di “non danneggiare gli altri” come un concetto ampio ma facilmente comprensibile e rilevante in numerosi contesti. Ha anche specificato che OpenAI ha menzionato esplicitamente armi e lesioni a terzi come esempi chiari di ciò che viene vietato. Tuttavia, il portavoce non ha chiarito se il divieto di utilizzo della loro tecnologia per “danneggiare” gli altri includa tutti i tipi di utilizzo militare al di fuori dello sviluppo di armi.