TECNOLOGIA, INTERNET TRENDS, GAMING, BIG DATA

Google ammette: controllare l’IA che genera immagini? Una sfida etica

Google ammette: controllare l’IA che genera immagini? Una sfida etica

By auroraoddi

Google ha recentemente ammesso di aver perso il controllo del suo modello AI che genera immagini. Questo errore ha portato a risultati imbarazzanti e sbagliati, in cui l’IA ha inserito le differenze di genere nelle immagini senza considerare il contesto storico. Questo episodio ha sollevato importanti questioni sull’etica e la responsabilità nell’uso dell’IA.

Cos’è l’IA generatrice di immagini di Google?

Il sistema in questione, chiamato Gemini, è la piattaforma di intelligenza artificiale conversazionale di punta di Google. Utilizza una versione del modello Imagen 2 per generare immagini su richiesta. Tuttavia, recentemente è emerso che il modello presentava problemi quando veniva chiesto di generare immagini di determinate circostanze storiche o persone.

Ad esempio, il modello ha generato immagini dei Padri Fondatori degli Stati Uniti come un gruppo multiculturale, inclusi individui di diversi gruppi etnici, nonostante sapessimo che i Padri Fondatori erano proprietari di schiavi bianchi. Questo risultato ha suscitato reazioni ironiche e critiche da parte di commentatori online.

La questione della diversità e del contesto storico

Il problema principale con il modello Gemini è che si basa sui dati di addestramento, che spesso riflettono i pregiudizi presenti nelle immagini raccolte. Ad esempio, molte delle immagini disponibili nei set di dati utilizzati per addestrare il modello rappresentano persone bianche in modo sproporzionato. Di conseguenza, se non viene specificato il tipo di persona, il modello tenderà a generare immagini di persone bianche.

Google riconosce che, dato che i suoi utenti provengono da tutto il mondo, è importante che il modello funzioni bene per tutti. Se si richiede un’immagine di giocatori di calcio o di una persona che cammina con un cane, è auspicabile ricevere una varietà di persone rappresentate, invece di immagini di persone di un solo gruppo etnico.

Le implicazioni etiche e la responsabilità di Google

Questo episodio solleva importanti questioni etiche e di responsabilità per Google e altre aziende che utilizzano l’IA generativa. Sebbene sia inevitabile che i modelli di intelligenza artificiale commettano errori, è responsabilità delle persone che li creano assicurarsi che siano addestrati correttamente e che vengano fornite istruzioni appropriate per gestire situazioni delicate come il contesto storico.

Google ha ammesso che il problema si è verificato perché il modello Gemini è diventato eccessivamente cauto e ha rifiutato di rispondere a determinate richieste, interpretandole erroneamente come sensibili. Tuttavia, l’azienda riconosce anche che ha commesso un errore nell’addestramento e nel tuning del modello per gestire appropriatamente la diversità e il contesto storico.

La necessità di istruzioni esplicite per il contesto storico

Una delle principali lezioni apprese da questo episodio è che le istruzioni implicite fornite ai modelli di intelligenza artificiale devono essere accompagnate da istruzioni esplicite per situazioni in cui il contesto storico è importante. Ad esempio, se si richiede un’immagine dei Padri Fondatori che firmano la Costituzione degli Stati Uniti, non è corretto generare un’immagine che ignori il contesto storico e rappresenti i Padri Fondatori come un gruppo multiculturale.

Le aziende che sviluppano modelli di intelligenza artificiale devono essere consapevoli delle possibili implicazioni di tali modelli e assicurarsi di fornire istruzioni esplicite per gestire situazioni complesse. Solo attraverso una maggiore consapevolezza etica e una responsabilità adeguata si potranno evitare future situazioni imbarazzanti e sbagliate come questa.

Scopri di più da Syrus

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere