I creatori di ChatGPT sono preoccupati che le IA possano diventare troppo intelligenti e sfuggire al controllo umano. Per questo, hanno chiesto ai governi di tutto il mondo di agire subito per limitare e sorvegliare le intelligenze artificiali.
Hanno proposto di creare un’organizzazione internazionale che si occupi di controllare le IA, come esiste già per le armi nucleari. Anche il capo di Google, una delle aziende più importanti nel campo dell’IA, è d’accordo con questa idea.
In una nota, pubblicata sul sito Web di OpenAI, i co-fondatori Greg Brockman e Ilya Sutskever e l’amministratore delegato Sam Altman hanno sostenuto la regolamentazione internazionale che includerebbe ispezioni di sistema, audit obbligatori, test per la conformità agli standard di sicurezza, nonché restrizioni sulla loro implementazione e livello di sicurezza.
Quando l’IA diventa una minaccia: OpenAI sollecita un’azione normativa per evitare l’Apocalisse
Secondo loro, è plausibile che nei prossimi dieci anni i sistemi di intelligenza artificiale supereranno le competenze degli esperti nella maggior parte dei settori e saranno produttivi quanto una grande azienda.
La superintelligenza potrebbe così diventare la tecnologia più potente mai affrontata dall’umanità, con notevoli vantaggi, ma anche grossi svantaggi. Ritengono che sia imperativo gestire in modo proattivo il rischio e non limitarsi a reagire agli eventi.
Il trio di leader chiede il coordinamento tra le aziende che lavorano sulle IA all’avanguardia per garantire lo sviluppo armonioso di modelli sempre migliori garantendo al contempo la sicurezza. Questo coordinamento potrebbe assumere la forma di un progetto governativo o di un contratto collettivo per limitare la crescita delle capacità di intelligenza artificiale.
Per decenni, i ricercatori hanno avvertito dei rischi associati alla superintelligenza, ma con l’accelerazione dello sviluppo dell’IA, tali rischi sono diventati più concreti. Il Center for AI Safety (CAIS) con sede negli Stati Uniti identifica otto categorie di rischi catastrofici ed esistenziali legati all’IA.
Oltre alla paura che una potente IA distrugga deliberatamente o accidentalmente l’umanità, il CAIS indica anche altre conseguenze dannose. Ad esempio, una crescente dipendenza dall’intelligenza artificiale potrebbe portare a una perdita della capacità di autogoverno dell’umanità, nonché a una centralizzazione del potere nelle mani di un piccolo gruppo di persone, creando disparità di potere di lunga durata. Per non parlare dei 300 milioni di posti di lavoro a rischio.
Nonostante ciò, ritengono che valga la pena continuare a sviluppare sistemi potenti, in quanto può portare a un futuro migliore, anche se i rischi devono essere gestiti con attenzione.
Ti consiglio di leggere anche…
E se ci fossimo sbagliati sull’intelligenza reale di ChatGPT?…
ChatGPT e Bard manipolano segretamente la tua opinione, vuoi evitarlo?
Una seduta di psicoanalisi con l’intelligenza artificiale: ma davvero?