La guida della UE per i social in vista delle elezioni: focus su sicurezza e trasparenza
29/03/2024
Le elezioni sono uno dei momenti cruciali per garantire l’integrità dei processi democratici. Con l’aumento dell’influenza dei social media nella società moderna, i giganti dei social media come Facebook, Google, Instagram, LinkedIn, TikTok, YouTube e altri hanno un ruolo significativo nel plasmare il panorama delle informazioni durante le elezioni.
Per questo motivo, l’Unione Europea ha pubblicato una guida sulla sicurezza delle elezioni rivolta a questi grandi attori del settore dei social media, al fine di mitigare i rischi sistemici, come la manipolazione delle informazioni, e garantire la tutela dei diritti fondamentali come la libertà di espressione e la privacy.
Il contesto del Digital Services Act (DSA)
Il Digital Services Act (DSA) è una normativa europea che regola le attività dei servizi digitali. I giganti dei social media con oltre 45 milioni di utenti attivi mensili nella regione sono soggetti a questa legge e hanno l’obbligo legale di identificare e mitigare i rischi sistemici, come la manipolazione delle informazioni in vista dei processi democratici nella regione.
Gli obiettivi della guida sulla sicurezza delle elezioni
La guida pubblicata dall’Unione Europea si concentra su diversi obiettivi chiave per garantire la sicurezza delle elezioni sui social media. In primo luogo, si richiede ai giganti dei social media di potenziare le risorse per la moderazione dei contenuti politici, assicurandosi di avere abbastanza personale qualificato per rispondere efficacemente ai rischi derivanti dal flusso di informazioni sulle loro piattaforme e agire in base alle segnalazioni dei verificatori indipendenti dei fatti. Il mancato adempimento a queste responsabilità potrebbe comportare sanzioni significative per le aziende.
Il bilanciamento dell’azione di moderazione dei contenuti politici
La guida sottolinea l’importanza per i giganti dei social media di trovare un equilibrio preciso nella moderazione dei contenuti politici. Devono essere in grado di distinguere tra satira politica, che dovrebbe rimanere online come forma di libertà di espressione protetta, e disinformazione politica malevola, il cui obiettivo potrebbe essere influenzare gli elettori e influenzare le elezioni. Nel secondo caso, il contenuto rientra nella categoria di rischio sistemico prevista dalla DSA, che richiede alle piattaforme di individuare e mitigare tempestivamente tali rischi.
Controlli degli utenti per i feed algoritmici
La guida sottolinea anche l’importanza di offrire agli utenti dei giganti dei social media un controllo significativo sui sistemi di raccomandazione algoritmica e basati sull’intelligenza artificiale. Questo significa che gli utenti dovrebbero essere in grado di esercitare un certo controllo sul tipo di contenuti che vedono, garantendo al contempo la diversità e il pluralismo mediatico. I sistemi di raccomandazione delle piattaforme dovrebbero anche ridimensionare la diffusione della disinformazione mirata alle elezioni, sulla base di metodi chiari e trasparenti, come il contenuto ingannevole che è stato sottoposto a verifica dei fatti e/o i post provenienti da account che diffondono ripetutamente disinformazione.
Risorse locali e competenze linguistiche
La guida sottolinea l’importanza per i giganti dei social media di disporre di risorse interne con competenze locali, compresa la conoscenza delle lingue. Piattaforme come Facebook e YouTube hanno spesso cercato di riutilizzare risorse centralizzate, senza cercare sempre competenze locali dedicate. La guida consiglia specificamente l’assunzione di personale con competenze locali, inclusa la conoscenza delle lingue, in aree quali la moderazione dei contenuti, la verifica dei fatti, la gestione delle minacce, la sicurezza informatica, la disinformazione e la manipolazione delle informazioni straniere, i diritti fondamentali e la partecipazione pubblica.
Misure di mitigazione e migliori pratiche
La guida fornisce anche una serie di misure di mitigazione e migliori pratiche per i giganti dei social media nell’affrontare le minacce legate alle elezioni. Ciò include il potenziamento delle risorse interne per concentrarsi su specifiche minacce elettorali, come gli eventi elettorali imminenti, e l’istituzione di processi per la condivisione di informazioni rilevanti e l’analisi del rischio. Si raccomanda inoltre la cooperazione con organi di controllo, esperti della società civile e tra le stesse piattaforme per la condivisione di informazioni sulle minacce alla sicurezza delle elezioni. In caso di incidenti ad alto rischio, si consiglia di istituire un meccanismo di risposta agli incidenti interno che coinvolga i dirigenti di alto livello e le altre parti interessate pertinenti all’interno dell’organizzazione.
Trasparenza e responsabilità
La guida sottolinea anche l’importanza della trasparenza per aumentare la responsabilità dei giganti dei social media. In particolare, si fa riferimento alle nuove regole in arrivo sulla trasparenza della pubblicità politica. Si consiglia alle piattaforme di prepararsi per la regolamentazione legalmente vincolante adottando misure come l’etichettatura chiara degli annunci politici, la fornitura di informazioni sullo sponsor dietro questi messaggi politici pagati, il mantenimento di un archivio pubblico degli annunci politici e l’adozione di sistemi per verificare l’identità degli inserzionisti politici.