Midjourney limita immagini politiche: verso elezioni senza deepfake
13/02/2024
Con la crescente capacità degli strumenti di intelligenza artificiale di generare rapidamente immagini e video modificati, la diffusione di contenuti falsi a fini di disinformazione politica è una minaccia concreta in vista delle prossime elezioni presidenziali negli Stati Uniti.
La proposta di Midjourney
Una possibile soluzione è quella avanzata dall’azienda Midjourney, ovvero vietare totalmente le immagini di politici come Biden e Trump nei 12 mesi precedenti le elezioni. Questa decisione è stata comunicata dal CEO David Holz durante una chat su Discord.
Holz ha affermato: “So che è divertente creare immagini di Trump, lo faccio anch’io. Trump è esteticamente molto interessante. Tuttavia, probabilmente è meglio evitare di farlo durante queste elezioni“.
I precedenti
In passato, come riporta Bloomberg, degli utenti avevano sfruttato l’IA di Midjourney per generare dei deepfake di Trump arrestato. Dopo la diffusione di queste immagini e di altri contenuti falsi, l’azienda aveva interrotto le prove gratuite del suo generatore di immagini basato su AI.
Attualmente, Midjourney vieta già la creazione di “figure pubbliche fuorvianti” e la rappresentazione di “eventi con potenziale fuorviante”. Nonostante ciò, Bloomberg è riuscita a creare con una vecchia versione del sistema immagini modificate di Trump, mentre la nuova versione si è rifiutata.
I limiti della proposta
Vietare le immagini di politici proteggerebbe la piattaforma Midjourney dalle polemiche, ma non impedirebbe l’utilizzo dell’IA per diffondere disinformazione e manipolare le elezioni in generale. Servono misure più ampie di protezione del processo democratico.
Misure adottate da altre aziende tech per contrastare la disinformazione politica
Anche altre aziende tech stanno adottando misure per contrastare la disinformazione politica o per semplificarne l’identificazione. Ad esempio, ChatGPT inizierà a etichettare le immagini create con DALL-E 3, mentre Meta sta lavorando allo sviluppo di una tecnologia in grado di rilevare e segnalare se un’immagine, un video o un audio sono stati generati utilizzando l’IA.