Sicurezza informatica: linee guida per sistemi AI sicuri
29/11/2023
L’innovazione nel campo dell’intelligenza artificiale (AI) ha aperto nuove porte e possibilità senza precedenti. Tuttavia, con il crescente potere del data mining e la comprensione del linguaggio naturale da parte degli algoritmi, sorgono nuovi rischi e minacce per la sicurezza dei sistemi AI. Per affrontare questa sfida, il National Cyber Security Center del Regno Unito, insieme ad altre agenzie governative e fornitori di AI, ha pubblicato le “Linee guida per lo sviluppo sicuro di sistemi AI“.
La cybersecurity come elemento fondamentale per l’AI
La sicurezza informatica è un fattore chiave per costruire sistemi AI sicuri e affidabili. Come ha sottolineato il Segretario della Sicurezza Interna degli Stati Uniti Alejandro Mayorkas, “siamo ad un punto di svolta nello sviluppo dell’intelligenza artificiale, che potrebbe essere la tecnologia più influente del nostro tempo“. Le linee guida mirano a garantire che i sistemi AI siano progettati, sviluppati, implementati e mantenuti in modo sicuro durante tutto il loro ciclo di vita.
Le quattro aree chiave delle linee guida
Le linee guida si suddividono in quattro aree fondamentali nel ciclo di sviluppo dei sistemi AI: progettazione sicura, sviluppo sicuro, implementazione sicura e operazioni e manutenzione sicure. Queste aree coprono una vasta gamma di argomenti, tra cui la modellazione delle minacce, la sicurezza della catena di fornitura, la protezione dell’infrastruttura AI e dei modelli, e l’aggiornamento dei modelli AI.
Progettazione sicura
La progettazione sicura è il primo passo fondamentale nello sviluppo di sistemi AI sicuri. Le linee guida sottolineano l’importanza di comprendere l’origine di tutti i componenti di un modello AI, inclusi i dati di addestramento e gli strumenti di costruzione. È essenziale che gli sviluppatori AI assicurino che le loro librerie abbiano controlli per impedire il caricamento di modelli non affidabili che potrebbero esporre il sistema a esecuzione di codice arbitrario.
Un’altra raccomandazione riguarda i controlli e la sanitizzazione appropriata dei dati e degli input. Questo include l’incorporazione dei feedback degli utenti o dei dati di apprendimento continuo nei modelli aziendali, riconoscendo che i dati di addestramento definiscono il comportamento del sistema. È inoltre consigliabile adottare una visione più lunga e olistica dei processi contenuti nei modelli AI al fine di valutare correttamente le minacce e individuare comportamenti imprevisti degli utenti.
Sviluppo sicuro
Nello sviluppo di sistemi AI sicuri, è fondamentale applicare controlli di accesso appropriati a tutti i componenti AI, compresi i dati di addestramento e le pipeline di elaborazione. Le linee guida raccomandano un approccio continuo basato sul rischio, poiché gli attaccanti potrebbero essere in grado di ricostruire la funzionalità di un modello o dei dati su cui è stato addestrato, accedendo direttamente al modello o acquisendo i suoi pesi. Gli attaccanti potrebbero anche manipolare i modelli, i dati o i prompt durante o dopo l’addestramento, rendendo non affidabile l’output del sistema.
Uno dei fenomeni evidenziati nel documento è il “machine learning avversario”, considerato una preoccupazione critica per la sicurezza dell’AI. Si tratta dell'”sfruttamento strategico delle vulnerabilità fondamentali presenti nei componenti di machine learning”. La preoccupazione è che manipolando questi elementi, attori malintenzionati possano interrompere o ingannare i sistemi AI, compromettendo la loro funzionalità e producendo risultati errati.
Implementazione sicura
Nell’implementazione sicura dei sistemi AI, gli sviluppatori devono prestare particolare attenzione ai controlli di accesso applicati a tutti i componenti AI. È necessario proteggere adeguatamente le pipeline di dati di addestramento e di elaborazione, al fine di evitare accessi non autorizzati o manipolazioni da parte di attaccanti esterni. Gli autori delle linee guida raccomandano un approccio basato sul rischio continuo, considerando che gli attaccanti potrebbero tentare di ricostruire la funzionalità di un modello o manipolare i dati o i prompt durante o dopo l’addestramento.
Uno dei fenomeni sottolineati è l’importanza di proteggere adeguatamente gli AI components, come i modelli e le infrastrutture, per evitare attacchi o tentativi di manipolazione. Per farlo, è fondamentale applicare i controlli di accesso appropriati e adottare una visione olistica dei processi contenuti nei modelli AI.
Operazioni e manutenzione sicure
Le operazioni e la manutenzione dei sistemi AI devono essere gestite in modo sicuro per garantire la loro affidabilità e funzionalità continue. È fondamentale adottare un approccio basato sul rischio e implementare controlli di accesso appropriati per tutti i componenti AI, inclusi i dati di addestramento e le pipeline di elaborazione.
Le linee guida mettono in evidenza la necessità di proteggere adeguatamente i modelli AI, i dati di addestramento e gli output generati dai sistemi AI. Gli sviluppatori dovrebbero essere consapevoli delle potenziali minacce e comportamenti imprevisti degli utenti e integrare tali considerazioni nei processi di gestione del rischio globale.
Un approccio globale alla sicurezza dell’AI
Le linee guida per lo sviluppo sicuro di sistemi di intelligenza artificiale rappresentano un importante passo avanti per garantire la cybersecurity in questo campo in rapida evoluzione. Queste linee guida si basano su altri sforzi governativi e internazionali per rendere i sistemi AI più sicuri, come il Piano d’azione per l’intelligenza artificiale della CISA, l’Ordine esecutivo di ottobre del presidente Biden e gli sforzi di altri paesi, come il framework di test AI Governance di Singapore e il Multilayer Framework for Good Cybersecurity Practices for AI dell’Europa.
È interessante notare che la Cina non ha partecipato a questo accordo. La Cina è considerata una potenza nello sviluppo dell’AI ed è stata oggetto di sanzioni da parte degli Stati Uniti per limitarne l’accesso ai siliconi più avanzati necessari per alimentare i modelli AI.
A livello di regolamentazione, l’Unione Europea sembra essere in vantaggio rispetto agli Stati Uniti. Oltre all’AI Act, i legislatori di Francia, Germania e Italia hanno recentemente raggiunto un accordo sulla regolamentazione dell’AI, affermando il loro sostegno alla “regolamentazione autonoma obbligatoria attraverso codici di condotta” con lo sviluppo di modelli AI fondamentali.