Strategie per combattere i deepfake espliciti di minori
29/04/2024
L’utilizzo crescente dell’intelligenza artificiale ha aperto la strada a numerosi sviluppi rivoluzionari, ma ha anche sollevato preoccupazioni molto serie, in particolare riguardo alla creazione di deepfake, ovvero video o immagini manipolate in modo tale da sembrare autentiche. Uno degli aspetti più preoccupanti riguarda i deepfake espliciti di minori, che vengono creati per scopi illegali, come il ricatto sessuale.
Di conseguenza, si pone la domanda: è possibile mettere sotto controllo i generatori di immagini AI al fine di prevenire la creazione di deepfake espliciti di minori?
La sfida del controllo dei generatori di immagini AI
La creazione di deepfake espliciti di minori è illegale nel Regno Unito, e sia il Partito Laburista che i Conservatori sono concordi nel voler vietare tutte le immagini AI generate in modo esplicito di persone reali. Tuttavia, non esiste un accordo globale su come questa tecnologia debba essere regolamentata. Inoltre, anche se i governi prendessero provvedimenti rigorosi, la creazione di ulteriori immagini sarebbe sempre a portata di clic, in quanto il contenuto esplicito fa parte dell’essenza stessa della generazione di immagini AI.
Immagini AI generate e materiale di abuso sessuale minorile
Nel corso di una ricerca dell’Università di Stanford, è stato scoperto che uno dei più grandi set di dati di addestramento per i generatori di immagini AI contiene materiale di abuso sessuale minorile. Questo set di dati, chiamato Laion (Large-scale AI Open Network), contiene circa 5 miliardi di immagini, tra cui centinaia o forse migliaia di casi di materiale di abuso sessuale minorile. La scoperta ha portato alla rimozione del set di dati dalla circolazione e alla segnalazione delle immagini sospette alle autorità competenti.
Tuttavia, il danno è stato già fatto. I generatori di immagini AI addestrati su Laion-5B, il set di dati in questione, sono utilizzati regolarmente in tutto il mondo, con il materiale di addestramento illecito impresso nelle loro reti neurali. Di conseguenza, questi generatori di immagini AI sono in grado di creare contenuti espliciti, sia di adulti che di minori, perché hanno “visto” tali immagini durante il processo di addestramento.
La disponibilità di set di dati aperti
Uno dei problemi principali riguarda la disponibilità dei set di dati aperti. Laion è stato creato come un prodotto open source, messo insieme da volontari e reso disponibile su Internet per consentire la ricerca indipendente nell’ambito dell’AI. Questo ha comportato l’ampio utilizzo del set di dati per addestrare modelli open source, compreso Stable Diffusion, uno dei generatori di immagini AI più importanti rilasciati nel 2022. Tuttavia, ciò ha anche permesso a chiunque di esplorare ed esaminare l’intero set di dati.
Non tutti i set di dati seguono questa politica di apertura. Ad esempio, OpenAI fornisce solo una “scheda di modello” per il suo sistema Dall-E 3, la quale afferma che le immagini sono state ottenute da fonti pubblicamente disponibili e con licenza. Tuttavia, non è chiaro se gli sforzi compiuti per filtrare i contenuti più espliciti abbiano avuto successo.
L’importanza di una regolamentazione adeguata
La difficoltà nel garantire un set di dati completamente pulito è uno dei motivi per cui organizzazioni come OpenAI sostengono la necessità di limitazioni. A differenza di Stable Diffusion, Dall-E 3 non può essere scaricato per essere eseguito su hardware personale, ma ogni richiesta deve passare attraverso i sistemi dell’azienda. Questo approccio offre a OpenAI e ad altri concorrenti, come Google, strumenti aggiuntivi per mantenere i loro generatori di immagini “puliti”, limitando le richieste e filtrando le immagini generate prima di inviarle all’utente finale. Gli esperti di sicurezza dell’AI ritengono che questo sia un modo meno fragile di affrontare il problema rispetto a un sistema che è stato addestrato a non creare immagini esplicite.
Tuttavia, per i “modelli fondamentali”, i prodotti più potenti e meno vincolati della rivoluzione dell’AI, non è nemmeno chiaro se un set di dati di addestramento completamente pulito sia utile. Ad esempio, un modello di AI che non ha mai visto immagini esplicite potrebbe essere incapace di riconoscerle nel mondo reale o di seguire le istruzioni su come segnalarle alle autorità competenti.
Il dibattito sulla regolamentazione futura
Attualmente, le proposte di divieto si concentrano principalmente sugli strumenti creati appositamente per scopi illeciti. Tuttavia, a lungo termine, la lotta contro le immagini esplicite generate da AI dovrà affrontare questioni simili ad altre difficoltà nel campo: come limitare un sistema che non si comprende appieno?
La regolamentazione dei generatori di immagini AI al fine di prevenire deepfake espliciti di minori è una sfida complessa. Richiede un’azione coordinata a livello globale, nonché un bilanciamento tra la necessità di proteggere i minori e la preservazione dell’innovazione e della ricerca nell’ambito dell’AI. Inoltre, è fondamentale sviluppare strumenti e tecniche avanzate per rilevare e contrastare l’uso illecito della tecnologia AI.