Google rivoluziona la sicurezza con Magika, lo strumento AI open source
23/02/2024
Google ha annunciato di aver reso open source Magika, uno strumento alimentato da intelligenza artificiale per identificare i tipi di file. Questo strumento è stato sviluppato per aiutare gli operatori della sicurezza a rilevare con precisione i tipi di file binari e testuali. Secondo Google, Magika supera i metodi di identificazione di file convenzionali, fornendo un miglioramento del 30% nella precisione complessiva e una precisione fino al 95% per i contenuti tradizionalmente difficili da identificare, come VBA, JavaScript e Powershell.
Come funziona Magika
Magika utilizza un “modello di deep learning su misura altamente ottimizzato” che consente l’identificazione precisa dei tipi di file in pochi millisecondi. Questo strumento implementa funzioni di inferenza utilizzando l’Open Neural Network Exchange (ONNX), consentendo una rapida e accurata identificazione dei file.
Google utilizza internamente Magika su larga scala per migliorare la sicurezza degli utenti, instradando i file di Gmail, Drive e Safe Browsing verso gli scanner di sicurezza e le politiche sui contenuti appropriate.
L’utilizzo dell’AI per rafforzare la sicurezza digitale
Google sostiene che l’utilizzo su vasta scala dell’intelligenza artificiale può rafforzare la sicurezza digitale. Secondo Phil Venables e Royal Hansen di Google, l’AI consente ai professionisti della sicurezza di scalare il loro lavoro nella rilevazione delle minacce, nell’analisi del malware, nella rilevazione delle vulnerabilità, nella correzione delle vulnerabilità e nella risposta agli incidenti.
Tuttavia, è importante adottare un approccio regolamentare equilibrato all’uso e all’adozione dell’AI per evitare un futuro in cui gli attaccanti possono innovare, mentre i difensori sono limitati dalle scelte di governance dell’AI.
Preoccupazioni riguardo ai modelli di AI generativi
Nonostante i benefici offerti dall’uso dell’AI, sono state sollevate preoccupazioni riguardo all’uso di modelli di AI generativi per l’addestramento, che potrebbero includere anche dati personali. L’Ufficio del Commissario per l’Informazione del Regno Unito ha sottolineato che se non si sa per cosa verrà utilizzato un modello di AI, è difficile garantire che il suo utilizzo rispetterà la protezione dei dati e i diritti e le libertà delle persone.
Inoltre, nuove ricerche hanno dimostrato che i grandi modelli di linguaggio possono fungere da “agenti dormienti” che possono sembrare innocui, ma possono essere programmati per comportamenti ingannevoli o maligni in determinate circostanze o con istruzioni specifiche.