AWS introduce nuovi strumenti per personalizzare Bedrock AI
01/12/2023
Amazon Web Services Inc. ha appena presentato nuovi strumenti che renderanno più facile personalizzare i modelli di grandi dimensioni del linguaggio disponibili nel suo cloud pubblico e integrarli nelle applicazioni. Durante la conferenza AWS re:Invent 2023 a Las Vegas, sono stati introdotti anche nuovi servizi cloud che le aziende possono utilizzare per addestrare e gestire modelli di intelligenza artificiale. Inoltre, è stato presentato un nuovo assistente AI chiamato Amazon Q, che aiuterà gli utenti a svolgere più rapidamente compiti come la scrittura di codice e la sintesi di documenti lunghi.
Personalizzazione di Bedrock AI
AWS offre un servizio chiamato Amazon Bedrock che offre accesso a un insieme di modelli di base gestiti. Ci sono i modelli di grandi dimensioni sviluppati da AWS chiamati Amazon Titan, così come reti neurali di altre società e dell’ecosistema open source. AWS ha presentato oggi due nuove funzionalità, la messa a punto e il preaddestramento continuato, che consentiranno ai clienti di personalizzare i modelli disponibili in Bedrock per compiti specifici.
La personalizzazione di una rete neurale comporta l’addestramento su dati non inclusi nella sua base di conoscenza esistente. Ad esempio, un’azienda di e-commerce che intende utilizzare un modello di linguaggio per rispondere alle domande dei clienti sui prodotti potrebbe addestrare il modello sulla documentazione dei prodotti. Questo processo di personalizzazione può migliorare significativamente l’accuratezza delle risposte del modello di linguaggio.
Messa a punto
La prima nuova funzionalità di personalizzazione che AWS sta implementando è la messa a punto, che consente agli sviluppatori di addestrare modelli di Bedrock supportati su set di dati etichettati. Questi set di dati contengono input di esempio, comunemente chiamati prompt, e risposte predefinite dell’IA a tali prompt. I record sono organizzati in un formato domanda-risposta che consente al modello di IA in fase di addestramento di imparare mediante esempi.
Preaddestramento continuato
L’altra funzionalità di personalizzazione introdotta da AWS questa mattina, il preaddestramento continuato, si concentra su un diverso insieme di casi d’uso. Consente alle aziende di personalizzare i modelli di Bedrock su set di dati particolarmente grandi, come basi di codice costituite da miliardi di token. Un token è un’unità di dati che corrisponde a pochi caratteri o numeri. Inoltre, la funzionalità consente di aggiornare regolarmente il set di dati di addestramento con nuove informazioni.
AWS consentirà ai clienti di effettuare il preaddestramento continuato utilizzando set di dati non etichettati. Questi set di dati contengono input di esempio, ma non necessariamente devono includere esempi di quali output un modello di IA dovrebbe generare in risposta. L’eliminazione della necessità di creare esempi di output riduce lo sforzo necessario per creare set di dati di addestramento, riducendo così i costi di personalizzazione dell’IA.
Agenti AI basati su cloud
Le applicazioni di intelligenza artificiale devono spesso svolgere compiti che comprendono più passaggi. Ad esempio, un chatbot di assistenza clienti potrebbe essere chiamato a gestire le richieste di informazioni sui prodotti, generare un riassunto di ciascuna richiesta e inoltrare il riassunto all’unità aziendale competente. AWS offre uno strumento chiamato Agenti per Amazon Bedrock per semplificare la creazione di applicazioni di intelligenza artificiale in grado di eseguire compiti multipli.
Lo strumento, che è stato lanciato in anteprima a luglio come funzionalità di anteprima di Bedrock, è stato ora reso disponibile e migliorato. Nello sviluppo di intelligenza artificiale, un agente è un programma in grado di prendere un compito multi-stadio come input, suddividerlo in azioni individuali e assegnare ciascuna azione a un modello di intelligenza artificiale. L’agente genera prompt che istruiscono il modello di IA su come eseguire il compito. Gli agenti vengono alimentati dal machine learning: gli sviluppatori li configurano fornendo un riassunto in linguaggio naturale di quali azioni verranno eseguite e come.
Gli Agenti per Amazon Bedrock semplificano il processo di creazione degli agenti di intelligenza artificiale. Secondo AWS, la nuova versione dello strumento, lanciata oggi, consente agli sviluppatori di monitorare come un agente esegue ciascuna fase di un compito multi-stadio. Se necessario, gli sviluppatori possono modificare il modo in cui vengono eseguite le sotto-azioni per migliorare la qualità dell’output. Quando è necessaria una personalizzazione ulteriore, un team di sviluppo software può aggiornare i template di orchestrazione di un agente. Un template di orchestrazione è un prompt di IA che informa un agente su quali compiti deve eseguire e come. Secondo AWS, gli sviluppatori possono ora personalizzare le spiegazioni dei compiti e altri dettagli come la presentazione dell’output dell’IA.
Modalità di protezione di Bedrock AI
Gli sviluppatori che utilizzano i modelli di Bedrock LLM, le versioni personalizzate di questi modelli e gli agenti di intelligenza artificiale ora hanno accesso a una nuova funzionalità chiamata Protezioni per Amazon Bedrock. Attualmente in anteprima, è progettata per impedire alle applicazioni di intelligenza artificiale di acquisire dati sensibili o generare output dannosi. La funzionalità consente agli sviluppatori di definire un insieme di argomenti da evitare per un’applicazione di intelligenza artificiale. Ad esempio, una banca potrebbe configurare il chatbot di assistenza clienti del suo sito Web per non fornire consigli sugli investimenti. La forza del filtro può essere regolata tramite un’interfaccia drag and drop.
La seconda finalità delle Protezioni per Amazon Bedrock è quella di proteggere dati sensibili come le informazioni personalmente identificabili, o PII. Secondo AWS, la funzionalità consente alle applicazioni di intelligenza artificiale di bloccare gli utenti che inseriscono prompt contenenti PII. È anche possibile eliminare dati sensibili dall’output generato dall’IA.