Site icon Syrus

Alleanza di Microsoft, OpenAI e Google contro i deepfake elettorali

Le elezioni rappresentano un momento fondamentale per la democrazia di qualsiasi paese. Tuttavia, negli ultimi anni, l’uso dei deepfake ha sollevato preoccupazioni sulle possibili manipolazioni delle informazioni e sulla diffusione di contenuti falsi. Per affrontare questa minaccia, un’alleanza di 20 aziende tecnologiche, tra cui Microsoft, OpenAI, Google, Meta e Amazon, ha firmato un accordo per combattere l’uso fraudolento delle deepfake nelle elezioni del 2024 in oltre 40 paesi.

Le aziende coinvolte nell’accordo

L’accordo, chiamato “Tech Accord to Combat Deceptive Use of AI in 2024 Elections“, coinvolge sia le aziende che creano e distribuiscono modelli di intelligenza artificiale, sia le piattaforme sociali in cui i deepfake sono più probabili che compaiano. Tra le aziende che hanno aderito all’accordo ci sono Adobe, Amazon, Google, IBM, Microsoft, OpenAI e Meta e X.

Gli impegni delle aziende

L’accordo prevede otto impegni principali da parte delle aziende coinvolte:

  1. Sviluppare e implementare tecnologie per mitigare i rischi legati ai contenuti elettorali fraudolenti generati dall’IA, compresi strumenti open-source quando appropriato.
  2. Valutare i modelli inclusi nell’accordo per comprendere i rischi che possono presentare in relazione ai contenuti elettorali fraudolenti generati dall’IA.
  3. Rilevare la distribuzione di questi contenuti sulle proprie piattaforme.
  4. Affrontare in modo adeguato i contenuti rilevati sulle proprie piattaforme.
  5. Favorire una resilienza intersettoriale ai contenuti elettorali fraudolenti generati dall’IA.
  6. Fornire trasparenza al pubblico su come l’azienda affronta questo problema.
  7. Continuare a collaborare con un’ampia gamma di organizzazioni globali della società civile e accademici.
  8. Sostenere gli sforzi volti a promuovere la consapevolezza pubblica, la cultura mediatica e la resilienza dell’intera società.

Cosa coprirà l’accordo

L’accordo si applicherà ai contenuti generati dall’IA, compresi audio, video e immagini. Affronta i contenuti che “falsificano o alterano in modo ingannevole l’aspetto, la voce o le azioni di candidati politici, funzionari elettorali e altre figure chiave in un’elezione democratica, o forniscono informazioni false agli elettori su quando, dove e come possono votare”.

Le azioni delle aziende

Le aziende che hanno firmato l’accordo si impegneranno a lavorare insieme per creare e condividere strumenti per individuare e affrontare la distribuzione online delle deepfake. Inoltre, hanno in programma di realizzare campagne educative e fornire “trasparenza” agli utenti.

Ad esempio, OpenAI, una delle aziende firmatarie, ha già dichiarato il mese scorso di voler sopprimere la disinformazione legata alle elezioni in tutto il mondo. Le immagini generate con il suo strumento DALL-E 3 saranno codificate con un classificatore che fornirà un watermark digitale per chiarire la loro origine come immagini generate dall’IA. L’azienda ha inoltre annunciato che lavorerà con giornalisti, ricercatori e piattaforme per ottenere feedback sul suo classificatore di provenienza. Ha anche intenzione di impedire ai chatbot di impersonare i candidati.

Le critiche all’accordo

Nonostante i principi generali ai quali le 20 aziende hanno aderito sembrino un buon punto di partenza, resta da vedere se un insieme di accordi senza un’applicazione vincolante sarà sufficiente a contrastare uno scenario in cui gli attori malevoli del mondo utilizzano l’IA generativa per influenzare l’opinione pubblica ed eleggere candidati anti-democratici in modo aggressivo, sia negli Stati Uniti che altrove.

Alcuni critici hanno sollevato dubbi sull’efficacia dell’accordo a causa del linguaggio vago e della mancanza di meccanismi di applicazione. Rachel Orey, direttore associato senior del Progetto Elezioni presso il Bipartisan Policy Center, ha dichiarato che “il linguaggio non è così forte come ci si potrebbe aspettare“. Ha tuttavia riconosciuto che le aziende hanno un interesse personale affinché i loro strumenti non vengano utilizzati per minare elezioni libere e corrette.

Utilizzo delle deepfake nelle elezioni precedenti

I deepfake generate dall’IA sono già state utilizzate nelle elezioni presidenziali degli Stati Uniti. Già nell’aprile del 2023, il Comitato Nazionale Repubblicano (RNC) ha diffuso un annuncio utilizzando immagini generate dall’IA del presidente Joe Biden e della vicepresidente Kamala Harris. La campagna di Ron DeSantis, che in seguito si è ritirato dalle primarie del GOP, ha seguito con immagini generate dall’IA del rivale e probabile candidato Donald Trump nel giugno 2023. Entrambi gli annunci includevano avvertenze poco visibili che le immagini erano state generate dall’IA.

Azioni per combattere l’abuso delle deepfake

Per affrontare l’abuso dI deepfake nelle chiamate di campagna false, la Federal Communication Commission (FCC) ha agito rapidamente e ha votato all’unanimità per vietare le chiamate di campagna false generate dall’IA. Tuttavia, il Congresso degli Stati Uniti non ha ancora approvato alcuna legislazione sull’IA. Nel dicembre scorso, l’Unione Europea (UE) ha approvato una vasta legislazione sull’IA che potrebbe influenzare gli sforzi normativi di altri paesi.

Syrus

Exit mobile version