Site icon Syrus

Meta lancia Purple Llama per lo sviluppo dell’IA generativa

Meta ha annunciato una nuova iniziativa chiamata Purple Llama, finalizzata a promuovere lo sviluppo responsabile dei sistemi di intelligenza artificiale. L’obiettivo principale di questa iniziativa è fornire alla comunità di sviluppatori tutte le risorse necessarie per costruire modelli di IA generativa aperti in modo sicuro e responsabile.

L’importanza dell’IA generativa

L’intelligenza artificiale generativa sta alimentando un’onda di innovazione, con chatbot conversazionali, generatori di immagini, strumenti di sintesi dei documenti e altro ancora che vengono ampiamente utilizzati in tutto il mondo. Molti di questi nuovi modelli di IA generativa sono basati su Llama, i grandi modelli di linguaggio open source di Meta.

Tuttavia, Meta ritiene che sia necessario assumersi la responsabilità di promuovere la sicurezza e la collaborazione nell’ambito dell’IA generativa per costruire fiducia in queste nuove innovazioni. Secondo il team di ricerca sull’IA di Meta, “le persone che costruiscono sistemi di intelligenza artificiale non possono affrontare le sfide dell’IA in un vuoto, motivo per cui vogliamo livellare il campo da gioco e creare un centro di massa per la fiducia e la sicurezza aperta“.

Purple Llama: Strumenti per la sicurezza e la valutazione

Per avviare l’iniziativa Purple Llama, Meta ha rilasciato un set gratuito e aperto di benchmark di valutazione della sicurezza informatica per i modelli di linguaggio di grandi dimensioni (LLM), chiamato CyberSec Eval. Inoltre, Meta ha annunciato Llama Guard, un classificatore di sicurezza per il filtraggio dell’input/output ottimizzato per una facile implementazione.

CyberSec Eval è il primo set di valutazioni della sicurezza informatica per i modelli di linguaggio a grande scala nell’industria. Questi benchmark sono basati su standard e linee guida dell’industria ed sono stati sviluppati in collaborazione con esperti di sicurezza. Forniscono metriche per quantificare i rischi di sicurezza degli LLM e sono progettati per affrontare problemi come la frequenza di suggerimenti di codice non sicuri. Consentono inoltre agli sviluppatori di valutare gli LLM per rendere più difficile alle applicazioni generare codice maligno che potrebbe essere utilizzato per facilitare attacchi informatici.

Llama Guard, d’altra parte, è un modello preaddestrato progettato per prevenire la generazione di output potenzialmente rischiosi da parte dei modelli di IA generativa. È stato addestrato su un mix di set di dati pubblicamente disponibili per consentire la rilevazione di contenuti rischiosi o violanti comuni che possono essere rilevanti per molti tipi di casi d’uso. In questo modo, può rilevare sia suggerimenti rischiosi che output da modelli di IA generativa e impedire che vengano elaborati.

Purple Teaming: Approccio collaborativo alla sicurezza dell’IA generativa

Meta ha scelto il nome “Purple Llama” per questa iniziativa di sicurezza dell’IA perché mitigare i rischi dell’IA generativa richiede agli sviluppatori di combinare attacco, attraverso il “red teaming”, e difesa, attraverso il “blue teaming”. Nel contesto della sicurezza informatica tradizionale, i red team sono composti da esperti che eseguono vari attacchi per superare le difese di sicurezza di un’azienda, mentre i blue team sono focalizzati sulla protezione e sulla risposta a tali attacchi.

Meta ha quindi definito il suo approccio alla sicurezza dell’IA generativa come “purple teaming”, con l’obiettivo di promuovere un approccio collaborativo per valutare e mitigare i potenziali rischi della tecnologia.

Come parte dell’iniziativa Purple Llama, Meta intende condurre una grande quantità di ricerca esplorativa, ma non lo farà da solo. Sta creando un ecosistema aperto che coinvolge partner come la AI Alliance, Advanced Micro Devices Inc., Anyscale Inc., Amazon Web Services Inc., Bain & Company, CloudFlare Inc., Databricks Inc., Dell Technologies Inc., Dropbox Inc., Google Cloud, Hugging Face Inc., IBM Corp., Intel Corp., Microsoft Corp., MLCmmons, Nvidia Corp., Oracle Corp., Scale AI Inc., Together Computing Inc. e molti altri.

Licenze per la ricerca e l’uso commerciale

I componenti del progetto Purple Llama, tra cui CyberSec Eval e Llama Guard, saranno concessi in licenza su base permissiva, consentendo sia la ricerca che l’uso commerciale. Meta presenterà il primo di questi componenti all’evento NeurIPs 2023 che inizia il 10 dicembre, dove fornirà una panoramica tecnica per gli sviluppatori interessati ad implementarli.

È importante sottolineare che Meta sta collaborando con diverse aziende, tra cui AWS, Google, Microsoft e Nvidia, che sono alcuni dei principali attori del settore, ma che non hanno aderito al programma AI Alliance. Meta ha in programma di concedere in licenza gli strumenti sia a scopo commerciale che per la ricerca, superando così le restrizioni delle opzioni di licenza del modello LLaMa.

Syrus

Exit mobile version