TECNOLOGIA, INTERNET TRENDS, GAMING, BIG DATA

TikTok multata in Italia: la sfida French scar solleva dubbi sulla sicurezza

TikTok multata in Italia: la sfida French scar solleva dubbi sulla sicurezza

By auroraoddi

Il 14 marzo 2024, l’autorità italiana per la concorrenza e i consumatori, l’AGCM, ha comminato una multa di 10 milioni di euro (quasi 11 milioni di dollari) a TikTok in seguito a un’indagine sulle preoccupazioni legate alla sicurezza algoritmica. L’AGCM ha aperto un’indagine l’anno scorso su una sfida chiamata “French scar”, in cui gli utenti della piattaforma hanno condiviso video di segni sul viso ottenuti pizzicando la pelle.

Secondo l’AGCM, tre società regionali del gruppo ByteDance, TikTok Technology Limited con sede in Irlanda, TikTok Information Technologies UK Limited e TikTok Italy Srl, sono state sanzionate per ciò che l’autorità ha definito una “pratica commerciale sleale“. L’AGCM ha affermato che l’azienda non ha implementato meccanismi adeguati per monitorare i contenuti pubblicati sulla piattaforma, in particolare quelli che possono minacciare la sicurezza dei minori e delle persone vulnerabili.

La sfida “French scar”

L’indagine ha confermato la responsabilità di TikTok nella diffusione di contenuti “in grado di minacciare la sicurezza psicofisica degli utenti, soprattutto se minori e vulnerabili”, come i video legati alla sfida “French scar“. Inoltre, l’autorità ha evidenziato come TikTok non abbia adottato misure adeguate per prevenire la diffusione di tali contenuti e non abbia rispettato appieno le proprie linee guida.

L’AGCM ha anche criticato il modo in cui TikTok applica le linee guida, sostenendo che non tiene adeguatamente conto della specifica vulnerabilità degli adolescenti. Ha sottolineato, ad esempio, che i ragazzi sono ancora in fase di sviluppo cerebrale e possono essere particolarmente a rischio di emulare comportamenti di gruppo per cercare di integrarsi socialmente.

Le osservazioni dell’autorità mettono in evidenza il ruolo del sistema di raccomandazione di TikTok nella diffusione di contenuti “potenzialmente pericolosi”, sottolineando l’incentivo della piattaforma a stimolare l’interazione e l’aumento del tempo trascorso dagli utenti sul servizio per aumentare i ricavi pubblicitari.

Disattivare i feed

È interessante notare come alcune legislazioni europee stiano prendendo in considerazione l’idea di disattivare per impostazione predefinita i feed di contenuti basati sul profilo degli utenti. Questo giudizio negativo dell’AGCM sui rischi del profilazione algoritmica potrebbe sostenere tali richieste.

Gruppi della società civile, come l’ICCL, sostengono che questa misura potrebbe ridurre l’incentivo delle piattaforme di social media finanziate dalla pubblicità ad amplificare la divisione e minare la coesione sociale a fini di lucro.

TikTok ha contestato la decisione dell’AGCM di comminare una sanzione. In una dichiarazione, la piattaforma ha cercato di minimizzare il rischio algoritmico per i minori e le persone vulnerabili, affermando che il contenuto della sfida “French scar” aveva una media di sole 100 ricerche giornaliere in Italia prima dell’annuncio dell’AGCM l’anno scorso. Inoltre, TikTok ha affermato di aver limitato la visibilità di questo contenuto agli utenti di età inferiore ai 18 anni e di averlo reso ineleggibile per il feed “For You”.

TikTok e il DSA

Sebbene l’applicazione delle sanzioni sia limitata a uno Stato membro dell’UE, la Commissione europea è responsabile del monitoraggio della conformità di TikTok alle disposizioni di responsabilità e trasparenza algoritmica del regolamento pan-europeo sui servizi digitali (DSA). Le sanzioni per la mancata conformità possono arrivare fino al 6% del fatturato annuo globale. TikTok è stato designato come una piattaforma molto grande ai sensi del DSA nell’aprile dello scorso anno, con l’obbligo di conformità entro la fine dell’estate.

Un cambiamento importante a seguito del DSA è la possibilità per gli utenti di TikTok di utilizzare feed basati su caratteristiche non algoritmiche. Tuttavia, tali feed alternativi sono disattivati per impostazione predefinita, il che significa che gli utenti rimangono soggetti al tracciamento e alla profilazione basati sull’IA a meno che non intervengano personalmente per disattivarli.

Il mese scorso, l’Unione Europea ha aperto un’inchiesta formale su TikTok, citando il design coinvolgente e i contenuti dannosi e la protezione dei minori come uno dei suoi ambiti di interesse. Questa procedura è ancora in corso. TikTok ha dichiarato di essere ansiosa di fornire alla Commissione una spiegazione dettagliata del suo approccio alla tutela dei minori.

TikTok e minori

Tuttavia, l’azienda ha avuto numerosi scontri con le autorità regionali preoccupate per la sicurezza dei minori negli ultimi anni, tra cui un intervento sulla protezione dei minori da parte dell’autorità italiana per la protezione dei dati; una multa di 345 milioni di euro lo scorso autunno per violazioni della protezione dei dati legate ai minori; e una serie di lamentele da parte di gruppi di tutela dei consumatori preoccupati per la sicurezza dei minori e la profilazione.

TikTok affronta anche la possibilità di ulteriori regolamentazioni da parte delle agenzie a livello di Stato membro che applicano la direttiva dell’UE sui servizi di media audiovisivi. Ad esempio, la Coimisiún na Meán dell’Irlanda sta considerando l’applicazione di regole alle piattaforme di condivisione video che richiederebbero la disattivazione per impostazione predefinita degli algoritmi di raccomandazione basati sulla profilazione.

La situazione non è migliore per la piattaforma negli Stati Uniti, poiché i legislatori hanno appena proposto una legge per vietare TikTok a meno che non si sciolga i legami con la società madre cinese ByteDance, citando la sicurezza nazionale e il potenziale utilizzo della piattaforma per tracciare e profilare gli utenti e fornire un modo per un governo straniero di manipolare gli americani.

Scopri di più da Syrus

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere