TECNOLOGIA, INTERNET TRENDS, GAMING, BIG DATA

Prepariamoci all’impatto della regolamentazione delle intelligenze artificiali

Prepariamoci all’impatto della regolamentazione delle intelligenze artificiali

By Redazione

Dal network Partner24Ore (innovativo progetto del Sole 24 Ore che mette a disposizione una rete di professionisti e imprese specializzate in servizi di qualità per gli studi professionali) riceviamo un paio di interessanti approfondimenti, riguardanti un argomento in continua evoluzione e sempre più rilevante: la regolamentazione dell’intelligenza artificiale. Gli articoli sono stati scritti dall’Avvocato Alberto Bozzo, digital law expert e Partner24 per la Rubrica “Esperto Risponde”, e sono per intero consultabili attraverso i seguenti link:

https://www.consultingpb.com/blog/diritto-rovescio/intelligenza-artificiale-presto-che-e-tardi/

https://www.consultingpb.com/blog/diritto-rovescio/ai-act-a-che-punto-siamo/

Prepariamoci all’impatto dell’AI Act

Il percorso complesso e prolungato verso l’approvazione dell’Artificial Intelligence Act (AI Act) rappresenta una tappa significativa nella storia della regolamentazione tecnologica. Con il Parlamento Europeo al centro di questo processo, il regolamento mira a creare un equilibrio tra la promozione dell’innovazione e la protezione dei cittadini contro i rischi potenziali legati all’utilizzo dell’intelligenza artificiale.

L’adozione di un approccio basato sul rischio, dove i sistemi di IA vengono classificati e regolamentati in base al loro livello di pericolo potenziale, costituisce sotto questo punto di vista una strategia fondamentale. Questo approccio mira a prevenire l’uso scorretto o dannoso dell’IA, come nei casi di riconoscimento facciale non autorizzato o sistemi di scoring sociale, che potrebbero minare i diritti individuali e la privacy.

intelligenza artificiale

I diritti fondamentali saranno tutelati?

L’enfasi posta sulla protezione dei diritti fondamentali, come la privacy e la non discriminazione, insieme alla richiesta di trasparenza e responsabilità nell’utilizzo dei sistemi IA, rispecchia un impegno crescente verso un utilizzo più etico e sicuro delle tecnologie emergenti. In questo scenario, diventa prioritario che i cittadini comprendano come le decisioni influenzate dall’IA vengano prese e quali implicazioni queste possano avere sulle loro vite quotidiane.

La decisione di vietare specifici usi dell’IA, come il riconoscimento delle emozioni o l’identificazione biometrica in determinate situazioni, riflette una presa di posizione netta contro le applicazioni che sono viste come minacce dirette ai diritti civili. Queste limitazioni si pongono come salvaguardia contro gli abusi e le potenziali conseguenze negative, mettendo al primo posto la sicurezza e il benessere dei cittadini.

Impatti futuri e sfide normative

Il dibattito sull’inclusione di ulteriori restrizioni, come quella sull’uso di sistemi di rilevazione e analisi facciale, sottolinea le sfide normative che l’UE dovrà affrontare. La necessità di bilanciare i vantaggi dell’innovazione tecnologica con la protezione dei diritti individuali e collettivi continuerà a essere un tema centrale nelle future deliberazioni.

Ma cosa sta succedendo oltre i confini europei? L’AI Act non solo stabilisce nuovi standard nell’Unione Europea, ma potrebbe anche influenzare le normative globali sull’IA, promuovendo un modello di governance tecnologica incentrato sui diritti umani e l’etica. L’invito a USA e altri partner internazionali a seguire l’esempio dell’UE mostra un intento di estendere questi principi oltre i confini europei, verso una regolamentazione più omogenea e globale dell’intelligenza artificiale.

L’evoluzione della normativa sull’Intelligenza Artificiale (IA) a livello globale sta delineando un panorama complesso, che interessa sia il rispetto dei diritti individuali che la sicurezza dei dati. Ad esempio, la Cina ha rafforzato le misure di sicurezza nell’ambito dell’IA generativa, imponendo requisiti specifici alle aziende del settore, incluso un elenco di fonti proibite per l’addestramento dei modelli IA. La Francia si muove in direzione di una Commissione nazionale per l’informatica e le libertà (CNIL), che ha già pubblicato linee guida per l’uso etico dell’IA, enfatizzando la necessità di conformarsi al regolamento generale sulla protezione dei dati (GDPR). In Spagna, invece, si è istituita un’agenzia nazionale dedicata esclusivamente alla supervisione dell’IA, l’AESIA. Quest’ultima, con sede a La Coruña, Galizia, si focalizza su un approccio all’IA che sia inclusivo, sostenibile e centrato sul cittadino, monitorando l’uso di questa tecnologia in vari settori e controllando la commercializzazione dei sistemi IA. 

In Italia un decalogo del Garante della Privacy per l’uso dell’AI nei servizi sanitari nazionali

Il Garante per la Protezione dei Dati Personali ha pubblicato un Decalogo per la realizzazione di servizi sanitari nazionali attraverso sistemi di Intelligenza Artificiale , nel quale emerge una consapevolezza crescente: non possiamo affidare ciecamente alle macchine decisioni che influenzano direttamente la vita delle persone.

Uno degli aspetti più controversi dell’IA è infatti il potenziale per discriminazioni involontarie. Una chiara illustrazione di questo rischio proviene dagli Stati Uniti, dove un sistema IA, usato per valutare il rischio sanitario, ha discriminato pazienti afroamericani, negando loro l’accesso a cure adeguate. La causa? Una metrica basata sulla spesa sanitaria media individuale. Questo caso sottolinea come la selezione e l’analisi dei dati siano cruciali. L’IA è potente, ma le sue previsioni sono solo buone quanto i dati su cui vengono formate.

Nella corsa all’adozione dell’IA, l’importanza della supervisione umana non può essere trascurata. Specialmente nella fase di addestramento degli algoritmi, il ruolo dell’esperto – in questo caso, del professionista sanitario – è cruciale. Una macchina può elaborare milioni di dati, ma la comprensione umana e l’esperienza sono essenziali per garantire che le decisioni siano accurate, etiche e giuste.

Così, osserva il Garante, il dibattito globale sull’IA in sanità non si limita alla sua efficacia, ma enfatizza anche la necessità di un approccio eticamente responsabile, soprattutto quando si tratta di dati personali. L’etica, infatti, ha già plasmato molte leggi sulla protezione dei dati, e ora sta influenzando quelle specifiche per l’IA. Inoltre, i fornitori di soluzioni basate sull’IA dovrebbero effettuare valutazioni d’impatto etico e sulla protezione dei dati prima della commercializzazione dei loro prodotti.

L’obiettivo dovrebbe essere garantire che l’IA funzioni come uno strumento che affianca i professionisti, piuttosto che sostituirli, assicurando che le decisioni prese siano nell’interesse dei pazienti e della società nel suo complesso.

%d