TECNOLOGIA, INTERNET TRENDS, GAMING, BIG DATA

Affrontare la minaccia delle deepfake nelle elezioni: Microsoft e OpenAI lanciano un fondo da 2 milioni di dollari

Affrontare la minaccia delle deepfake nelle elezioni: Microsoft e OpenAI lancian...

By auroraoddi

Mentre il mondo si prepara ad affrontare un record di 2 miliardi di elettori che si recheranno alle urne in oltre 50 paesi quest’anno, una nuova minaccia si profila all’orizzonte: l’uso di deepfake alimentate dall’intelligenza artificiale per diffondere disinformazione e minare la democrazia. Di fronte a questo scenario preoccupante, Microsoft e OpenAI hanno deciso di intervenire, annunciando un fondo da 2 milioni di dollari per contrastare i rischi crescenti delle deepfake e dell’IA generativa utilizzate per ingannare gli elettori.

La minaccia delle deepfake in un panorama elettorale in evoluzione

La rapida diffusione di chatbot come ChatGPT e di strumenti di intelligenza artificiale generativa in grado di creare contenuti falsi, come video, audio e immagini, ha dato vita a una nuova e allarmante minaccia per l’integrità dei processi elettorali. Queste tecnologie, note come “deepfake”, consentono a chiunque di generare facilmente materiale fuorviante e ingannevole, mettendo a rischio la capacità degli elettori di distinguere il vero dal falso.

Particolarmente vulnerabili sono le “comunità più deboli”, che potrebbero essere più inclini a credere a ciò che vedono senza mettere in discussione l’autenticità del contenuto. Questo scenario preoccupa profondamente le autorità elettorali di tutto il mondo, come dimostrato dall’appello lanciato dalla Commissione elettorale indiana ai partiti politici affinché evitino l’uso di deepfake e disinformazione simile nelle loro campagne online.

La risposta di Microsoft e OpenAI: il “Fondo per la Resilienza Sociale”

Di fronte a questa minaccia in rapida evoluzione, Microsoft e OpenAI hanno deciso di agire in modo proattivo, annunciando la creazione di un “Fondo per la Resilienza Sociale” da 2 milioni di dollari. Questo fondo mira a “promuovere l’istruzione e l’alfabetizzazione sull’IA tra gli elettori e le comunità vulnerabili”, secondo quanto dichiarato in un post sul blog delle due aziende.

Promuovere l’alfabetizzazione sull’IA attraverso partnership strategiche

Per raggiungere questo obiettivo, Microsoft e OpenAI hanno stretto collaborazioni con alcune organizzazioni chiave:

Older Adults Technology Services (OATS)

OATS utilizzerà il finanziamento per sviluppare programmi di formazione mirati agli over 50 negli Stati Uniti, coprendo gli “aspetti fondamentali dell’IA”.

Coalition for Content Provenance and Authenticity (C2PA)

Questa iniziativa industriale, che conta tra i suoi membri aziende come Adobe, Microsoft, Google e Intel, si concentrerà sulla creazione di un quadro comune per affrontare le deepfake create appositamente per fuorviare gli elettori.

International Institute for Democracy and Electoral Assistance (International IDEA)

Questa organizzazione internazionale lavorerà per aumentare la consapevolezza e la comprensione dell’IA e delle sue implicazioni nei processi elettorali.

Partnership on AI (PAI)

Questa associazione senza scopo di lucro si impegnerà a promuovere l’alfabetizzazione sull’IA e a collaborare con Microsoft e OpenAI per affrontare le sfide legate all’utilizzo improprio dell’IA nelle elezioni.

Misure preventive adottate da altri colossi tecnologici

Microsoft e OpenAI non sono gli unici a intervenire per contrastare i rischi delle deepfake nelle elezioni. Altre grandi aziende tecnologiche hanno già introdotto alcune restrizioni nei loro strumenti di IA:

  • Google ha annunciato che il suo chatbot Gemini non risponderà a domande sulle elezioni.
  • Meta (Facebook) sta limitando le risposte relative alle elezioni attraverso il suo chatbot.
  • OpenAI ha lanciato un nuovo strumento di rilevamento delle deepfake per aiutare i ricercatori a identificare i contenuti falsi generati dal suo generatore di immagini DALL-E.

Il ruolo dell’IA nell’individuazione delle deepfake

Mentre le aziende tecnologiche lavorano per limitare l’uso improprio dell’IA, gli stessi strumenti di intelligenza artificiale possono essere utilizzati per individuare e contrastare le deepfake. OpenAI, ad esempio, ha sviluppato un rilevatore di deepfake per aiutare i ricercatori a identificare i contenuti falsi generati dal suo DALL-E.

Questa tecnologia di rilevamento può svolgere un ruolo cruciale nel proteggere l’integrità dei processi elettorali, consentendo di smascherare rapidamente i tentativi di disinformazione basati su deepfake. Tuttavia, è importante sottolineare che l’IA da sola non può essere la soluzione definitiva: è necessario un approccio olistico che coinvolga anche educazione, sensibilizzazione e collaborazione tra aziende, organizzazioni e istituzioni.

Rafforzare la resilienza democratica attraverso l’alfabetizzazione sull’IA

Il fulcro dell’iniziativa di Microsoft e OpenAI è proprio l’alfabetizzazione sull’IA e la creazione di una maggiore consapevolezza tra gli elettori e le comunità vulnerabili. Fornendo strumenti e conoscenze per comprendere meglio le capacità e i limiti dell’intelligenza artificiale, si mira a renderli più resilienti di fronte alle minacce delle deepfake e della disinformazione online.

Attraverso i programmi di formazione e le partnership con organizzazioni come OATS, C2PA, International IDEA e PAI, Microsoft e OpenAI sperano di promuovere una maggiore comprensione dell’IA e delle sue implicazioni, aiutando gli elettori a sviluppare un approccio più critico e consapevole nei confronti dei contenuti digitali.

La necessità di un approccio collaborativo e responsabile all’IA

Il lancio del “Fondo per la Resilienza Sociale” da parte di Microsoft e OpenAI rappresenta solo un tassello di un più ampio sforzo per affrontare le sfide poste dall’IA e dalle deepfake nelle elezioni. Altre aziende tecnologiche, come Google e Meta, hanno già intrapreso iniziative simili, dimostrando la necessità di un approccio collaborativo e responsabile all’intelligenza artificiale.

Infatti, le principali società del settore hanno firmato impegni volontari per contrastare tali rischi e stanno lavorando insieme per costruire un quadro comune per affrontare le deepfake create appositamente per ingannare gli elettori. Questo sforzo congiunto è essenziale per proteggere l’integrità dei processi democratici di fronte alle minacce in rapida evoluzione dell’era digitale.

Oltre il fondo: l’impegno continuo di Microsoft e OpenAI

Il “Fondo per la Resilienza Sociale” rappresenta solo il primo passo dell’impegno di Microsoft e OpenAI in questo ambito. Come affermato da Teresa Hutson, vicepresidente corporate di Microsoft per la tecnologia e la responsabilità sociale, “questo lancio è solo uno dei passi che rappresenta l’impegno di Microsoft e OpenAI ad affrontare le sfide e le esigenze nello spazio dell’alfabetizzazione e dell’istruzione sull’IA“.

Le due aziende hanno dichiarato che continueranno a collaborare con organizzazioni e iniziative che condividono i loro obiettivi e valori, dimostrando un impegno a lungo termine per rafforzare la resilienza democratica di fronte alle minacce delle deepfake e della disinformazione alimentata dall’IA.

Fonte dell’articolo qui.

Scopri di più da Syrus

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere