AI nel cybercrime e contrasto minacce: cosa pensa la NASA
11/01/2024
L’Intelligenza Artificiale è diventata una componente sempre più rilevante nel mondo della sicurezza informatica, sia per le organizzazioni criminali sia per gli stati nazionali. Secondo Rob Joyce, direttore della cibersicurezza presso la National Security Agency (NSA) degli Stati Uniti, l’uso dell’AI da parte di criminali e hacker statali è una realtà ben consolidata. Tuttavia, Joyce sottolinea che l’intelligence statunitense sta sfruttando a sua volta le tecnologie dell’Intelligenza Artificiale per individuare attività malevole.
L’AI nelle mani dei criminali e degli hacker statali
Secondo Joyce, sia i criminali che gli hacker statali fanno ampio uso dei modelli di AI generativi offerti dalle grandi aziende del settore. Questi strumenti consentono loro di creare testi e immagini artificiali che possono essere utilizzati per condurre attacchi informatici e campagne di spionaggio. Joyce non ha fornito dettagli specifici sugli attacchi di AI o attribuito attività particolari a uno stato o a un governo specifico.
Joyce ha sottolineato come i recenti sforzi degli hacker sostenuti dalla Cina nel mirare alle infrastrutture critiche degli Stati Uniti siano un esempio di come le tecnologie dell’AI stiano emergendo come strumenti per individuare attività malevole, dando così un vantaggio all’intelligence statunitense. Invece di utilizzare malware tradizionali che potrebbero essere facilmente rilevati, gli hacker cinesi sfruttano vulnerabilità e falle di implementazione per infiltrarsi nelle reti e apparire come utenti autorizzati.
L’AI al servizio dell’intelligence statunitense
Joyce ha sottolineato che l’AI, il machine learning e il big data stanno contribuendo a migliorare le capacità di individuazione delle attività malevole da parte dell’intelligence statunitense. Grazie a queste tecnologie, è possibile rilevare comportamenti anomali che non corrispondono a quelli degli operatori di infrastrutture critiche legittime. Questo consente di identificare attività sospette e dare un vantaggio alle operazioni di contrasto.
L’uso dell’AI nell’ambito della sicurezza informatica non è privo di rischi. Joyce ha affermato che l’AI non è un “super strumento” in grado di trasformare una persona incompetente in una persona competente, ma rende coloro che la utilizzano più efficaci e pericolosi. Ad esempio, gli attaccanti possono utilizzare l’AI per creare messaggi di phishing sempre più convincenti o per migliorare gli aspetti tecnici degli attacchi, che altrimenti non sarebbero in grado di eseguire autonomamente.
Le sfide dell’AI nella sicurezza informatica
L’uso dell’AI nel contesto della sicurezza informatica solleva importanti questioni di sicurezza e privacy. Il governo degli Stati Uniti, consapevole di tali sfide, ha introdotto un’ordinanza esecutiva per stabilire nuovi standard di sicurezza e affidabilità per l’AI. L’obiettivo è proteggere la società da abusi e errori, garantendo un utilizzo responsabile di queste tecnologie.
La Federal Trade Commission (FTC) ha recentemente messo in guardia sulle potenziali minacce legate all’uso dell’AI. Ad esempio, strumenti come ChatGPT possono essere utilizzati per aumentare la portata di frodi e truffe. È quindi fondamentale sviluppare meccanismi di controllo e regole per prevenire il loro abuso.