La lotta di OpenAI per controllare l’IA superintelligente
23/05/2024
La corsa per lo sviluppo di sistemi di intelligenza artificiale sempre più avanzati è diventata una priorità cruciale per molte aziende tecnologiche all’avanguardia. Tra queste, OpenAI si è distinta per i suoi sforzi ambiziosi nel campo dell’AI superintelligente, con l’obiettivo dichiarato di sviluppare tali sistemi a beneficio dell’umanità. Tuttavia, un recente rapporto rivela che la strada per raggiungere questo traguardo non è stata priva di ostacoli e sfide.
La Nascita del Team per il Superallineamento
Nel luglio dello scorso anno, OpenAI ha formato un team dedicato al “superallineamento”, con l’obiettivo di risolvere le principali sfide tecniche del controllo dell’intelligenza artificiale superintelligente entro i prossimi quattro anni. Guidato da Jan Leike, ex ricercatore di DeepMind, e dal co-fondatore di OpenAI, Ilya Sutskever, il team aveva il compito di contribuire alla ricerca sulla sicurezza dei modelli di intelligenza artificiale, sia interni ad OpenAI che di altri attori del settore.
Lotte per le Risorse Computazionali
Secondo una fonte interna, il team per il superallineamento si era visto promettere il 20% delle risorse di calcolo dell’azienda, ma le richieste per una frazione di tale quota venivano spesso respinte, ostacolando il loro lavoro. Questa sfida, insieme ad altre, ha portato diversi membri del team a dimettersi questa settimana, tra cui lo stesso Leike.
Le Preoccupazioni di Leike
Leike ha reso pubbliche alcune delle ragioni della sua dimissione, affermando di essere in disaccordo con la leadership di OpenAI sulle priorità fondamentali dell’azienda. Egli ritiene che una quota molto maggiore delle risorse dovrebbe essere dedicata alla preparazione per le prossime generazioni di modelli di intelligenza artificiale, alla sicurezza, al monitoraggio, alla preparazione, all’allineamento, alla robustezza avversariale, alla riservatezza e all’impatto sociale. Leike è preoccupato che l’azienda non stia procedendo sulla strada giusta per affrontare queste sfide cruciali.
La Distrazione di Sutskever
Un’ulteriore complicazione è stata la battaglia tra il co-fondatore Sutskever e il CEO di OpenAI, Sam Altman. Sutskever, insieme all’antico consiglio di amministrazione di OpenAI, aveva tentato di licenziare Altman l’anno scorso, ma sotto la pressione degli investitori e di molti dipendenti dell’azienda, Altman è stato infine reintegrato, mentre gran parte del consiglio di amministrazione si è dimesso. Secondo la fonte, Sutskever era fondamentale per il team del superallineamento, contribuendo alla ricerca e fungendo da ambasciatore presso i principali responsabili decisionali di OpenAI.
La Riorganizzazione del Team
Dopo le dimissioni di Leike e Sutskever, John Schulman, altro co-fondatore di OpenAI, si è fatto carico del tipo di lavoro svolto dal team del superallineamento. Tuttavia, non ci sarà più un team dedicato; invece, il lavoro sarà svolto da un gruppo di ricercatori sparsi in varie divisioni dell’azienda. Un portavoce di OpenAI ha descritto questa mossa come un “integrazione più profonda” del team.
Preoccupazioni per la Sicurezza
La paura è che, a seguito di questi cambiamenti, lo sviluppo dell’intelligenza artificiale di OpenAI non sarà più incentrato sulla sicurezza come avrebbe potuto essere. Leike ha sottolineato che “costruire macchine più intelligenti degli esseri umani è un’impresa intrinsecamente pericolosa” e che, negli ultimi anni, la cultura e i processi di sicurezza hanno ceduto il passo ai “prodotti luccicanti”.
Impegno di Altman e Brockman
Nonostante le dimissioni di Leike e Sutskever, Altman ha riconosciuto su X che c’è “molto altro da fare” e che l’azienda è “impegnata a farlo”. Il co-fondatore Greg Brockman ha aggiunto che è necessario avere “un feedback loop molto stretto, test rigorosi, attenta considerazione a ogni passo, sicurezza di livello mondiale e armonia tra sicurezza e capacità“.
Sfide per il Futuro
Mentre OpenAI cerca di navigare in queste acque turbolente, la domanda che rimane è se l’azienda riuscirà a mantenere il suo impegno per la sicurezza e l’allineamento dell’intelligenza artificiale superintelligente, o se i suoi sforzi verranno nuovamente soffocati dalla pressione di lanciare nuovi prodotti accattivanti. Il futuro dell’IA superintelligente, e di conseguenza dell’umanità, potrebbe dipendere dalla capacità di OpenAI di trovare un equilibrio tra innovazione e responsabilità.
Lezioni da Apprendere
Questa vicenda sottolinea l’importanza cruciale di dedicare risorse adeguate e un focus costante alla sicurezza e all’allineamento dell’intelligenza artificiale avanzata. Ignorare queste priorità fondamentali, come sembra essere accaduto in OpenAI, può mettere a rischio gli sforzi per controllare l’IA superintelligente, con potenziali conseguenze catastrofiche per l’umanità. Le aziende tecnologiche leader devono imparare da questo esempio e garantire che la sicurezza e l’allineamento siano al centro dei loro sforzi di sviluppo dell’IA.
Fonte dell’articolo qui.