L’IA di Meta e il dilemma delle coppie interrazziali: un’esclusione digitale?
09/04/2024
L’intelligenza artificiale sta rapidamente diventando una parte integrante della nostra vita quotidiana. Oggi, una delle aree in cui l’IA sta guadagnando terreno è la generazione di immagini. Tuttavia, sembra che l’IA di Meta, una delle principali società nel settore, abbia delle limitazioni significative quando si tratta di creare immagini di coppie interrazziali, in particolare un uomo asiatico con una donna bianca.
L’esperienza personale di impossibilità
Ho deciso di testare l‘IA di Meta per verificare se fosse in grado di generare immagini di una coppia interrazziale che comprendesse un uomo asiatico e una donna bianca. Ho ripetutamente provato a utilizzare diversi prompt come “uomo asiatico e amico caucasico“, “uomo asiatico e moglie bianca” e “donna asiatica e marito caucasico”. Sorprendentemente, l’IA di Meta ha rifiutato costantemente di restituire un’immagine corretta che rappresentasse le razze specificate.
Sembra che l’IA di Meta non sia in grado di immaginare una coppia interrazziale con un uomo asiatico e una donna bianca. Questa limitazione mi ha lasciato stupito e mi ha portato a indagare ulteriormente.
Limiti dell’IA di Meta nella generazione di immagini
Ho scoperto che anche apportando modifiche ai prompt testuali, l’IA di Meta non sembrava essere in grado di generare immagini corrette. Quando ho chiesto un’immagine di un “uomo asiatico e una donna bianca che sorridono con un cane“, l’IA di Meta mi ha restituito tre immagini consecutive di due persone asiatiche. Anche quando ho sostituito “bianca” con “caucasica”, il risultato è stato lo stesso. “Uomo asiatico e donna caucasica il giorno del matrimonio” mi ha dato un uomo asiatico in abito e una donna asiatica in un abito tradizionale… sebbene a una più attenta osservazione sembri una combinazione di qipao e kimono. La multiculturalità è incredibile.
L’IA di Meta sembra inoltre avere difficoltà nel rappresentare relazioni platoniche. Ogni volta che ho chiesto un’immagine di un “uomo asiatico con un amico caucasico” o di una “donna asiatica con un amico bianco”, l’IA ha restituito immagini di due persone asiatiche. Anche quando ho chiesto un’immagine di un’ “asiatica con un’amica nera”, l’immagine generata dall’IA mostrava due donne asiatiche. Solo quando ho modificato la richiesta in “asiatica con un’amica afroamericana” i risultati sono stati più accurati.
I limiti dell’IA di Meta
È interessante notare che l’IA sembra funzionare leggermente meglio quando si tratta di persone dell’Asia meridionale. È riuscita a creare un’immagine utilizzando il prompt “uomo dell’Asia meridionale con moglie caucasica” — ma immediatamente ha generato un’immagine di due persone dell’Asia meridionale utilizzando lo stesso prompt. Il sistema sembra anche basarsi pesantemente sugli stereotipi, aggiungendo elementi che ricordano il bindi e il sari alle donne dell’Asia meridionale create, senza che io lo richiedessi.
È evidente che il generatore di immagini di Meta non è in grado di concepire persone asiatiche accanto a persone bianche. Ma ci sono anche indicazioni più sottili di pregiudizio nei risultati generati dal sistema. Ad esempio, ho notato che l’IA di Meta rappresenta costantemente le “donne asiatiche” come persone di origine asiatica orientale con incarnati chiari, anche se l’India è il paese più popoloso del mondo. Aggiunge abbigliamento specifico di una determinata cultura, anche senza richiesta specifica. L’IA ha generato diversi uomini asiatici anziani, ma le donne asiatiche erano sempre giovani.
L’unica immagine generata con successo è stata ottenuta utilizzando il prompt “donna asiatica con marito caucasico” e mostrava un uomo visibilmente più anziano con una donna asiatica giovane dalla pelle chiara, una situazione insolita dato che non stavo cercando di entrare nel discorso sull’età. Subito dopo, ho generato un’altra immagine utilizzando lo stesso prompt e il risultato è stato un ritorno all’immagine di un uomo asiatico (anch’egli anziano) con una donna asiatica.
Al momento, Meta non ha risposto immediatamente a una richiesta di commento.
Le implicazioni delle limitazioni dell’IA di Meta
Meta ha introdotto i suoi strumenti di generazione di immagini con intelligenza artificiale l’anno scorso, e il suo strumento di creazione di adesivi è andato fuori controllo con la creazione di immagini nude e personaggi di Nintendo armati.
I sistemi di intelligenza artificiale riflettono i pregiudizi dei loro creatori, degli addestratori e del set di dati utilizzato. Nei media statunitensi, il termine “asiatico” di solito si riferisce a una persona asiatica orientale, piuttosto che a persone provenienti da altre parti del continente. Non sorprende quindi che il sistema di Meta assuma che tutte le persone “asiatiche” assomiglino allo stesso modo, quando in realtà siamo un insieme diversificato di persone che spesso hanno poco in comune oltre a essere inserite nella stessa categoria nei censimenti.
Le persone asiatiche che non si adattano al modello standard vengono essenzialmente cancellate dalla coscienza culturale, e persino coloro che si adattano sono sottorappresentati nei media mainstream. Gli asiatici vengono omogeneizzati, esotizzati e relegati alla condizione di “stranieri perenni”. Rompere gli stereotipi è facile nella vita reale e impossibile nel sistema di intelligenza artificiale di Meta. Ancora una volta, invece di permettere all’immaginazione di spiccare il volo, l’IA generativa la imprigiona nelle stesse banali pulsioni della società.