Un think tank chiede un sistema di segnalazione degli incidenti per regolamentare l’IA
28/06/2024
L’avanzamento dell’intelligenza artificiale (IA) sta trasformando rapidamente la nostra società, con l’adozione di questa tecnologia in numerosi settori chiave. Tuttavia, con l’aumento dell’integrazione dell’IA nella vita quotidiana, emergono preoccupazioni crescenti riguardo alla sicurezza e all’affidabilità di tali sistemi. Il Centre for Long-Term Resilience (CLTR), un importante think tank, ha recentemente lanciato un appello urgente per l’implementazione di un sistema di segnalazione degli incidenti legati all’IA, al fine di colmare una lacuna critica nei piani di regolamentazione di questo settore.
L’esigenza di un sistema di segnalazione degli incidenti legati all’IA
Secondo il CLTR, l’IA ha già una storia di malfunzionamenti imprevisti, con oltre 10.000 incidenti di sicurezza registrati dai media in sistemi di IA implementati dal 2014. Mentre l’IA diventa sempre più integrata nella società, la frequenza e l’impatto di questi incidenti sono destinati ad aumentare. Il think tank sottolinea che un regime di segnalazione degli incidenti ben funzionante è essenziale per un’efficace regolamentazione dell’IA, traendo paralleli con industrie critiche per la sicurezza come l’aviazione e la medicina. Questa visione è supportata da un ampio consenso di esperti, nonché dai governi degli Stati Uniti, della Cina e dell’Unione Europea.
I vantaggi di un sistema di segnalazione degli incidenti legati all’IA
Il rapporto del CLTR delinea tre principali benefici dell’implementazione di un sistema di segnalazione degli incidenti:
- Monitoraggio dei rischi di sicurezza dell’IA nel mondo reale: Ciò permetterebbe di informare gli aggiustamenti normativi necessari.
- Coordinamento delle risposte rapide: Alle principali incidenze e indagini sulle cause profonde.
- Identificazione di segnali di allarme precoci: Per potenziali danni su larga scala in futuro.
La mancanza di un sistema di segnalazione degli incidenti nel Regno Unito
Attualmente, la regolamentazione dell’IA nel Regno Unito manca di un quadro efficace per la segnalazione degli incidenti. Questa lacuna priva il Dipartimento per la Scienza, l’Innovazione e la Tecnologia (DSIT) della visibilità su vari incidenti critici, tra cui:
- Problemi con i modelli fondamentali altamente capaci
- Incidenti derivanti dall’uso dell’IA da parte del governo del Regno Unito nei servizi pubblici
- Uso improprio di sistemi di IA per scopi malevoli
- Danni causati da assistenti virtuali, tutori e terapeuti basati sull’IA
Il CLTR avverte che senza un adeguato sistema di segnalazione degli incidenti, il DSIT potrebbe venire a conoscenza di nuovi danni attraverso i media piuttosto che attraverso processi di segnalazione stabiliti.
Raccomandazioni per il governo del Regno Unito
Per affrontare questa lacuna, il think tank raccomanda tre passaggi immediati per il governo del Regno Unito:
- Sistema di segnalazione degli incidenti governativo: Istituire un sistema per segnalare gli incidenti derivanti dall’uso dell’IA nei servizi pubblici, come estensione dello standard di registrazione della trasparenza algoritmica (ATRS).
- Coinvolgere regolatori ed esperti: Commissionare regolatori e consultare esperti per identificare le lacune più preoccupanti, garantendo una copertura efficace degli incidenti prioritari e comprendendo le esigenze delle parti interessate per un regime funzionale.
- Sviluppare le capacità del DSIT: Sviluppare la capacità del DSIT di monitorare, indagare e rispondere agli incidenti, eventualmente attraverso un database pilota degli incidenti di IA. Ciò farebbe parte della funzione centrale del DSIT, inizialmente concentrandosi sulle lacune più urgenti ma eventualmente espandendosi per includere tutte le segnalazioni dai regolatori del Regno Unito.
L’importanza di un sistema di segnalazione degli incidenti per l’IA
Mentre l’IA continua a progredire e a permearsi in vari aspetti della società, l’implementazione di un robusto sistema di segnalazione degli incidenti potrebbe rivelarsi cruciale per mitigare i rischi e garantire uno sviluppo e una distribuzione sicuri delle tecnologie di IA.
Veera Siivonen, Chief Commercial Officer e Partner di Saidot, ha commentato:
“Questo rapporto del Centre for Long-Term Resilience arriva in un momento opportuno. Poiché il Regno Unito si avvia verso le elezioni generali, la politica sull’IA del prossimo governo sarà la pietra angolare per la crescita economica. Tuttavia, ciò richiede precisione nel bilanciare la regolamentazione e l’innovazione, fornendo linee guida senza restringere il potenziale dell’industria per sperimentare. Mentre l’implementazione di un sistema centralizzato di segnalazione degli incidenti per l’uso improprio e il malfunzionamento dell’IA sarebbe un primo passo encomiabile, ci sono molti altri passi da compiere.”
Il prossimo governo del Regno Unito dovrebbe fornire certezza e comprensione alle imprese con requisiti di governance chiari, monitorando e mitigando i rischi più probabili. Integrando una varietà di strategie di governance dell’IA con la segnalazione centralizzata degli incidenti, il Regno Unito può sfruttare il potenziale economico dell’IA, assicurando che essa benefici la società mentre protegge i processi democratici e la fiducia pubblica.
Fonte dell’articolo qui.