L’importanza dell’open-source nell’evoluzione dell’intelligenza artificiale
11/12/2023
L‘intelligenza artificiale è una delle tecnologie più promettenti del nostro tempo, ma la sua evoluzione solleva questioni importanti riguardo alla sicurezza e alla responsabilità nell’utilizzo. Mentre i leader tecnologici si sono espressi a favore della regolamentazione dell’IA, sono anche impegnati a fare in modo che le nuove norme funzionino a loro vantaggio. In questo contesto, si sono creati due schieramenti distinti: quello dell’approccio open-source e quello chiuso.
Cos’è l’IA open-source?
Il termine “n” deriva dalla pratica, ormai consolidata da decenni, di sviluppare software in cui il codice è libero o ampiamente accessibile a chiunque voglia esaminarlo, modificarlo e costruirvi sopra. Nell’ambito dell’IA, l’approccio open-source coinvolge non solo il codice, ma anche una filosofia più ampia che promuove l’accessibilità della tecnologia sottostante. L’IA open-source si basa sull’idea di condividere idee scientifiche e promuovere l’innovazione aperta, inclusi l’uso di tecnologie e software open-source.
L’AI Alliance: un’organizzazione per l’IA open-source
Per sostenere l’approccio open-source nell’IA, Facebook Meta e IBM hanno lanciato l’AI Alliance, un gruppo che riunisce diverse aziende, tra cui Dell, Sony, AMD, Intel, università e start-up nel campo dell’IA. L’AI Alliance si propone di promuovere lo scambio scientifico aperto di idee e l’innovazione aperta, compreso l’uso di tecnologie e software open-source. Secondo Darío Gil, vicepresidente senior di IBM e direttore della divisione di ricerca, il futuro dell’IA sarà costruito fondamentalmente su questi principi.
La controversia sull’IA open-source
Nonostante il nome, OpenAI, l’azienda responsabile di ChatGPT e DALL-E, è nota per sviluppare sistemi di IA chiusi. Secondo Ilya Sutskever, scienziato capo e co-fondatore di OpenAI, esistono incentivi a breve termine e commerciali contro l’open source. Inoltre, esiste una preoccupazione a lungo termine riguardo a un sistema di IA con capacità “strabilianti” che potrebbe essere troppo pericoloso per essere reso pubblicamente accessibile.
I rischi
Gli attuali modelli di IA possono già rappresentare rischi e potrebbero essere utilizzati per intensificare campagne di disinformazione a scopo di disturbo delle elezioni democratiche. Ci sono preoccupazioni che l’AI open-source potrebbe portare a un uso improprio della tecnologia da parte di soggetti malintenzionati. Secondo David Evan Harris, studioso dell’Università della California, Berkeley, l’IA è diversa da altre tecnologie e richiede una maggiore cautela nell’approccio open-source.
Le critiche alla diffusione dell’intelligenza artificiale open-source
La Center for Humane Technology, un’organizzazione critica delle pratiche dei social media di Meta, è tra i gruppi che attirano l’attenzione sui rischi dei modelli di IA open-source o trapelati. Secondo Camille Carlton, membro del gruppo, è irresponsabile distribuire tali modelli al pubblico in assenza di regole adeguate che ne limitino l’utilizzo.
La sfida della regolamentazione dell’IA
La regolamentazione dell’IA è diventata un tema di grande dibattito. Mentre il presidente degli Stati Uniti, Joe Biden, ha emesso un’ordinanza che richiede ulteriori studi sui modelli di IA “open-source”, l’Unione Europea sta cercando di definire norme chiare in merito. Entrambi i contesti riconoscono la necessità di bilanciare i benefici e i rischi dell’IA open-source.