TECNOLOGIA, INTERNET TRENDS, GAMING, BIG DATA

Google lancia risorse open source per sviluppo IA

Google lancia risorse open source per sviluppo IA

By auroraoddi

Google ha recentemente annunciato l’apertura di una serie di risorse open source volte a supportare lo sviluppo di modelli di intelligenza artificiale. Questi strumenti sono progettati per favorire la creazione e l’implementazione di modelli generativi di IA, con l’obiettivo di migliorare le prestazioni e l’efficienza delle applicazioni di intelligenza artificiale.

MaxDiffusion: Implementazioni di riferimento per modelli di diffusione

Una delle risorse messe a disposizione da Google è MaxDiffusion, una collezione di implementazioni di riferimento per vari modelli di diffusione. Questi modelli includono, ad esempio, generatori di immagini stabili che possono essere eseguiti su dispositivi XLA.

L’acronimo “XLA” sta per Accelerated Linear Algebra ed è una tecnica che ottimizza e velocizza specifici tipi di carichi di lavoro di intelligenza artificiale, tra cui il raffinamento e il servizio dei modelli. I tensor processing units (TPU) di Google e le recenti GPU Nvidia sono dispositivi XLA che possono beneficiare delle implementazioni di MaxDiffusion.

JetStream: un nuovo motore per modelli generativi di IA

Oltre a MaxDiffusion, Google ha introdotto JetStream, un nuovo motore progettato per eseguire modelli generativi di IA, in particolare modelli di generazione di testo. Attualmente, JetStream supporta solo le TPU, ma si prevede che in futuro verrà aggiunta la compatibilità con le GPU.

Secondo Google, JetStream offre un miglioramento delle prestazioni fino a 3 volte superiore “per dollaro” rispetto agli altri motori disponibili. Questo significa che è possibile ottenere risultati di alta qualità impiegando meno risorse economiche.

Aggiornamenti a MaxText: modelli di IA per la generazione di testo

Oltre a MaxDiffusion e JetStream, Google ha anche introdotto nuovi aggiornamenti per MaxText, una collezione di modelli di IA per la generazione di testo. Questi modelli sono progettati per funzionare su TPUs e GPU Nvidia nell’ambiente cloud.

MaxText ora include modelli come Gemma 7B di Google, GPT-3 di OpenAI, Llama 2 e modelli sviluppati dalla startup di intelligenza artificiale Mistral. Secondo Google, questi modelli possono essere personalizzati e adattati alle esigenze degli sviluppatori.

L’obiettivo di Google con questi aggiornamenti è quello di ottimizzare le prestazioni di GPU e TPU, migliorando l’efficienza energetica e l’ottimizzazione dei costi.

Collaborazione con Hugging Face per la creazione di Optimum TPU

Infine, Google ha collaborato con Hugging Face, una startup di intelligenza artificiale, per creare Optimum TPU, uno strumento che semplifica l’esecuzione di modelli di IA su TPUs.

L’obiettivo di Optimum TPU è quello di ridurre le barriere all’implementazione di modelli generativi di IA su hardware TPU, in particolare modelli di generazione di testo. Attualmente, Optimum TPU supporta solo il modello Gemma 7B, ma si prevedono ulteriori miglioramenti e aggiornamenti in futuro.

Scopri di più da Syrus

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continue reading

Scopri di più da Syrus

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continue reading