Unione Europea approva regolamentazione storica sull’IA
12/12/2023
L’Unione Europea ha raggiunto un accordo storico sulla regolamentazione dello sviluppo dell’intelligenza artificiale (IA), dopo una maratona di dibattiti durati 72 ore. Questo accordo rappresenta la più ampia e incisiva legge sulla sicurezza dell’IA mai realizzata fino ad oggi. Secondo quanto riportato dal The Washington Post, i dettagli dell’accordo non sono ancora stati resi disponibili.
L’importanza dell’accordo sulla regolamentazione dell’IA
L’accordo sulla regolamentazione dell’IA dell’Unione Europea rappresenta uno standard e un modello per molte altre giurisdizioni nel mondo. Dragoș Tudorache, un parlamentare rumeno che ha co-presieduto le negoziazioni sull’AI Act, ha dichiarato al The Washington Post che è necessario prestare particolare attenzione nella stesura della legislazione, poiché essa influenzerà molte altre nazioni.
La proposta di regolamentazione stabilisce le modalità di sviluppo e distribuzione dei modelli di apprendimento automatico all’interno del blocco commerciale dell’UE. Questa regolamentazione avrà un impatto sull’utilizzo dell’IA in settori che vanno dall’istruzione all’occupazione fino al settore sanitario. L’intelligenza artificiale sarà suddivisa in quattro categorie a seconda del rischio sociale che ognuna di esse potrebbe comportare: rischio minimo, rischio limitato, rischio elevato e vietato.
Usi vietati e a rischio elevato dell’IA
Tra gli utilizzi vietati dell’IA ci sono quelli che eludono la volontà dell’utente, quelli che prendono di mira gruppi socialmente protetti o quelli che forniscono monitoraggio biometrico in tempo reale, come il riconoscimento facciale. Gli utilizzi a rischio elevato includono quelli “destinati ad essere utilizzati come componente di sicurezza di un prodotto” o quelli destinati ad applicazioni specifiche come infrastrutture critiche, istruzione, questioni legali/giudiziarie e assunzione di personale. I chatbot come ChatGPT, Bard e Bing rientrano invece nella categoria “rischio limitato“.
Secondo Dr. Brandie Nonnecke, direttore del CITRIS Policy Lab presso l’UC Berkeley, la Commissione Europea si è nuovamente distinta per l’approccio audace nell’affrontare le tecnologie emergenti, come aveva già fatto con la privacy dei dati attraverso il GDPR. La proposta di regolamentazione è interessante perché affronta il problema con un approccio basato sul rischio, simile a quanto proposto nel quadro normativo sull’IA del Canada.
Le negoziazioni
Le negoziazioni in corso sulla regolamentazione proposta erano state interrotte nelle ultime settimane da Francia, Germania e Italia. Questi paesi avevano bloccato i colloqui sulle regole che guidano come le nazioni dell’UE potrebbero sviluppare i Modelli Fondamentali, ovvero IA generalizzate da cui possono essere ottimizzate applicazioni più specializzate. GPT-4 di OpenAI è uno di questi modelli fondamentali, poiché ChatGPT, GPT e altre applicazioni di terze parti sono tutti addestrati sulla sua funzionalità di base. I tre paesi erano preoccupati che le rigide regolamentazioni dell’UE sugli IA generative potessero ostacolare gli sforzi delle nazioni membri nello svilupparle in modo competitivo.
In precedenza, la Commissione Europea aveva affrontato le sfide legate alla gestione delle emergenti tecnologie dell’IA attraverso una serie di iniziative, pubblicando la prima Strategia Europea sull’IA e il Piano Coordinato sull’IA nel 2018, seguiti dalle Linee Guida per un’IA affidabile nel 2019. L’anno successivo, la Commissione ha pubblicato un Libro Bianco sull’IA e una Relazione sulle implicazioni in termini di sicurezza e responsabilità dell’Intelligenza Artificiale, l’Internet delle Cose e la robotica.
Principi di regolamentazione dell’IA
“L’intelligenza artificiale non dovrebbe essere uno scopo in sé, ma uno strumento al servizio delle persone con l’obiettivo finale di aumentare il benessere umano”, ha scritto la Commissione Europea nel suo progetto di regolamentazione sull’IA. “Le regole sull’intelligenza artificiale disponibili sul mercato dell’Unione o che in altro modo interessano i cittadini dell’Unione dovrebbero quindi mettere le persone al centro (essere incentrate sull’umanità), in modo che possano fidarsi che la tecnologia venga utilizzata in modo sicuro e conforme alla legge, incluso il rispetto dei diritti fondamentali“.
“Allo stesso tempo, tali regole per l’intelligenza artificiale dovrebbero essere equilibrate, proporzionate e non limitare o ostacolare inutilmente lo sviluppo tecnologico”, ha continuato la Commissione. “Ciò è particolarmente importante perché, sebbene l’intelligenza artificiale sia già presente in molti aspetti della vita quotidiana delle persone, non è possibile prevedere tutti gli utilizzi o le applicazioni che potrebbero emergere in futuro“.
Più di recente, la Commissione Europea ha iniziato a collaborare con membri dell’industria su base volontaria per elaborare regole interne che consentano alle aziende e agli enti di regolamentazione di operare secondo gli stessi principi concordati. “Io e il CEO di Google, Sundar Pichai, abbiamo concordato sul fatto che non possiamo permetterci di aspettare che la regolamentazione dell’IA diventi effettivamente applicabile, e di lavorare insieme a tutti gli sviluppatori di IA per sviluppare già un patto sull’IA su base volontaria prima della scadenza legale”, ha dichiarato Thierry Breton, responsabile dell’industria della Commissione Europea, in una dichiarazione a maggio. La Commissione ha intrapreso discussioni simili anche con aziende statunitensi.