OpenAI, l’azienda pioniera nell’intelligenza artificiale, ha recentemente formato un nuovo comitato per supervisionare le decisioni critiche in materia di sicurezza e protezione relative ai suoi progetti e alle sue operazioni. Tuttavia, questa mossa ha sollevato preoccupazioni tra gli esperti di etica, poiché il comitato è composto esclusivamente da membri interni dell’azienda, incluso il CEO Sam Altman. Questa decisione mette in discussione la capacità di OpenAI di garantire una supervisione imparziale e indipendente sulle sue attività.
La Composizione del Comitato di Sicurezza di OpenAI
Il Comitato di Sicurezza e Protezione di OpenAI è composto da alti dirigenti dell’azienda, tra cui il CEO Sam Altman, i membri del consiglio di amministrazione Bret Taylor, Adam D’Angelo e Nicole Seligman, nonché il capo scienziato Jakub Pachocki, Aleksander Madry (a capo del team “preparedness”), Lilian Weng (responsabile dei sistemi di sicurezza), Matt Knight (responsabile della sicurezza) e John Schulman (responsabile della “scienza dell’allineamento”). Questo gruppo sarà responsabile della valutazione dei processi e delle salvaguardie di sicurezza di OpenAI nei prossimi 90 giorni, per poi condividere le proprie conclusioni e raccomandazioni con l’intero consiglio di amministrazione.
Le Preoccupazioni degli Ex Dipendenti
Questa decisione di affidare la supervisione della sicurezza a soli membri interni arriva in un momento delicato per OpenAI. Negli ultimi mesi, l’azienda ha infatti assistito alle dimissioni di diversi dipendenti di spicco che si occupavano della sicurezza, tra cui Daniel Kokotajlo, Ilya Sutskever e Jan Leike. Questi ex dipendenti hanno espresso preoccupazioni circa la presunta de-prioritizzazione della sicurezza dell’IA da parte di OpenAI, sostenendo che l’azienda non sia sulla “giusta traiettoria” per affrontare adeguatamente queste questioni.
Il Ruolo della Trasparenza e dell’Accountability
Le ex membri del consiglio di amministrazione di OpenAI, Helen Toner e Tasha McCauley, hanno scritto in un editoriale per The Economist che, con Altman alla guida, non credono che l’azienda possa essere considerata affidabile nel rendere conto delle proprie azioni. Secondo loro, l’autogoverno di OpenAI non può resistere alla pressione degli incentivi di profitto. Questa mancanza di trasparenza e accountability solleva dubbi sulla capacità dell’azienda di gestire in modo responsabile lo sviluppo di sistemi di IA sempre più potenti.
L’Impegno di OpenAI per la Regolamentazione dell’IA
Nonostante queste preoccupazioni, OpenAI ha sostenuto la necessità di una regolamentazione dell’IA. L’azienda ha assunto un lobbista interno e ha speso centinaia di migliaia di dollari per il lobbying negli Stati Uniti solo nell’ultimo trimestre del 2023. Recentemente, il Dipartimento della Sicurezza Interna degli Stati Uniti ha inoltre annunciato che Altman farà parte del suo nuovo Consiglio per la Sicurezza e la Protezione dell’Intelligenza Artificiale, che fornirà raccomandazioni per uno sviluppo e una distribuzione sicuri dell’IA nelle infrastrutture critiche del Paese.
Il Ruolo degli Esperti Esterni
Per cercare di evitare l’apparenza di un semplice “foglia di fico etica”, OpenAI ha promesso di coinvolgere esperti esterni in materia di sicurezza, protezione e aspetti tecnici per supportare il lavoro del comitato. Tra questi, figurano il veterano della sicurezza informatica Rob Joyce e l’ex funzionario del Dipartimento di Giustizia degli Stati Uniti John Carlin. Tuttavia, l’azienda non ha fornito dettagli sulla dimensione e sulla composizione di questo gruppo di esperti esterni, né sulla reale influenza che essi avranno sulle decisioni del comitato.
Le Critiche all’Efficacia dei Comitati di Supervisione Aziendale
Secondo il columnist di Bloomberg Parmy Olson, i consigli di supervisione aziendali come il Comitato di Sicurezza e Protezione di OpenAI, simili ai consigli di supervisione dell’IA di Google, “non fanno praticamente nulla in termini di reale supervisione“. Ciò solleva dubbi sull’effettiva capacità di tali comitati di garantire una supervisione indipendente e imparziale sulle attività delle aziende.
Il Ruolo Promesso dei Rappresentanti Esterni
Paradossalmente, Altman aveva in passato promesso che i soggetti esterni avrebbero svolto un ruolo importante nella governance di OpenAI. Nel 2016, aveva dichiarato che l’azienda avrebbe “pianificato un modo per permettere a vasti settori del mondo di eleggere rappresentanti in un consiglio di governance“. Tuttavia, questa promessa non si è mai concretizzata e sembra improbabile che si realizzi in futuro.
L’Importanza della Supervisione Indipendente
La decisione di OpenAI di affidare la supervisione della sicurezza a un comitato composto esclusivamente da membri interni solleva preoccupazioni significative tra gli esperti di etica. Senza una supervisione indipendente e imparziale, vi è il rischio che l’azienda anteponga i propri interessi di profitto alla responsabilità e alla trasparenza necessarie nello sviluppo di sistemi di IA sempre più potenti. Questa situazione mette in discussione la capacità di OpenAI di gestire in modo etico e responsabile le sfide legate all’intelligenza artificiale.
La Necessità di un Approccio Più Equilibrato
Per ristabilire la fiducia e la credibilità, OpenAI dovrebbe considerare l’adozione di un approccio più equilibrato nella composizione del suo comitato di supervisione. Ciò potrebbe includere l’inclusione di esperti esterni indipendenti, con comprovata esperienza e reputazione nel campo dell’etica dell’IA e della sicurezza tecnologica. Solo attraverso una supervisione imparziale e trasparente, OpenAI potrà dimostrare il suo impegno a garantire uno sviluppo responsabile e sicuro dell’intelligenza artificiale.
Fonte dell’articolo qui.

