Site icon Syrus

Europa pioniera nella regolamentazione dell’intelligenza artificiale con l’AI Act

Regolamenti UE Il primo quadro normativo completo sull'Intelligenza Artificiale

L’Unione Europea ha fatto un passo avanti significativo nel campo dell’Intelligenza Artificiale, introducendo il primo quadro normativo completo al mondo per regolare questa tecnologia emergente. Questo nuovo insieme di regolamenti, noto come AI Act, mira a proteggere i diritti fondamentali, la democrazia, lo stato di diritto e la sostenibilità ambientale, riducendo al contempo i rischi connessi all’IA e promuovendo l’innovazione.

Approvazione del AI Act da parte del Parlamento Europeo

Dopo quasi tre anni dalla presentazione della bozza dei regolamenti, il Parlamento Europeo ha finalmente approvato l’AI Act con una schiacciante maggioranza di 523 voti a favore, 46 contrari e 49 astensioni. Questo importante passo avanti è stato raggiunto dopo un accordo raggiunto tra i funzionari dell’UE lo scorso dicembre.

L’AI Act è attualmente in fase di verifica da parte di esperti linguisti e richiede l’approvazione formale del Consiglio Europeo prima di diventare legge. Tuttavia, si prevede che l’AI Act entrerà in vigore entro la fine della legislatura, prima delle prossime elezioni parlamentari all’inizio di giugno.

Obiettivi e principi dell’AI Act

L’obiettivo principale degli regolamenti dell’UE sull’IA è quello di proteggere i diritti fondamentali, la democrazia, lo stato di diritto e la sostenibilità ambientale. Allo stesso tempo, si mira a promuovere l’innovazione e stabilire l’Europa come leader nel campo dell’IA.

L’AI Act definisce le obbligazioni per le applicazioni di IA in base ai rischi potenziali e all’impatto che possono avere sulla società. I regolamenti vietano alcune pratiche che potrebbero mettere a rischio i diritti dei cittadini, come i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e la raccolta non mirata di immagini di volti da telecamere di sorveglianza e dal web per creare database di riconoscimento facciale.

Altre applicazioni vietate includono il punteggio sociale, il riconoscimento delle emozioni nelle scuole e nei luoghi di lavoro e l’IA che manipola il comportamento umano o sfrutta le vulnerabilità delle persone. Alcuni aspetti della polizia predittiva saranno vietati se si basano interamente sull’analisi delle caratteristiche di una persona o sul loro profilo, come l’orientamento sessuale o le opinioni politiche. Tuttavia, l’uso di sistemi di identificazione biometrica da parte delle forze dell’ordine sarà consentito in determinate circostanze con l’autorizzazione preventiva, ad esempio per aiutare a trovare una persona scomparsa o prevenire un attacco terroristico.

Applicazioni ad alto rischio e condizioni associate

Le applicazioni di IA considerate ad alto rischio, come l’uso dell’IA nelle forze dell’ordine e nell’assistenza sanitaria, saranno soggette a determinate condizioni. Queste applicazioni non devono discriminare e devono rispettare le regole sulla privacy. I sviluppatori devono dimostrare che i sistemi siano trasparenti, sicuri e spiegabili agli utenti. Per quanto riguarda i sistemi di IA considerati a basso rischio (come i filtri antispam), i sviluppatori devono comunque informare gli utenti che stanno interagendo con contenuti generati dall’IA.

Etichettatura dei contenuti generati dall’IA e modelli generativi

La legge prevede anche regole per la generazione di contenuti dall’IA e i media manipolati. I deepfake e qualsiasi altra immagine, video o audio generato dall’IA dovranno essere chiaramente etichettati. I modelli di IA dovranno rispettare anche le leggi sul copyright. I detentori dei diritti possono scegliere di riservarsi i loro diritti sulle opere o su altri contenuti per impedire la scansione di testo e dati, a meno che ciò non sia fatto per scopi di ricerca scientifica. I modelli di IA generati esclusivamente per la ricerca, lo sviluppo e la prototipazione sono esenti da questa regola.

Modelli di IA ad alto rischio

I modelli di IA generale e generativa più potenti, ad esempio quelli addestrati utilizzando una potenza di calcolo totale superiore a 10^25 FLOPs, sono considerati a rischio sistemico secondo le nuove regole. La soglia potrebbe essere aggiustata nel tempo, ma si ritiene che modelli come GPT-4 di OpenAI e il Gemini di Google rientrino in questa categoria.

I fornitori di tali modelli dovranno valutare e mitigare i rischi, segnalare incidenti gravi, fornire dettagli sul consumo energetico dei loro sistemi, garantire che soddisfino gli standard di sicurezza informatica e effettuare test avanzati ed valutazioni dei modelli.

Sanzioni per violazioni dell’AI Act

Come per altre regolamentazioni dell’UE nel settore tecnologico, le sanzioni per la violazione delle disposizioni dell’AI Act possono essere elevate. Le aziende che infrangono le regole saranno soggette a multe fino a 35 milioni di euro o fino al sette percento dei loro profitti annuali globali, a seconda di quale importo sia più alto.

Impatto sulle aziende di IA

L’AI Act si applica a tutti i modelli operanti nell’UE, il che significa che i fornitori di IA con sede negli Stati Uniti dovranno rispettare le regole, almeno in Europa. Sam Altman, CEO di OpenAI, ha suggerito lo scorso maggio che la sua azienda potrebbe ritirarsi dall’Europa se l’AI Act diventasse legge, ma in seguito ha dichiarato che l’azienda non ha intenzione di farlo.

Per far rispettare la legge, ogni paese membro creerà la propria autorità di controllo sull’IA e la Commissione Europea istituirà un Ufficio per l’IA. Quest’ultimo svilupperà metodi per valutare i modelli e monitorare i rischi dei modelli di IA generale. I fornitori di modelli di IA generale che sono considerati a rischio sistemico saranno invitati a collaborare con l’ufficio per redigere codici di condotta.

Syrus

Exit mobile version