Polizia francese testa telecamere AI per le Olimpiadi di Parigi
07/03/2024
Le forze di polizia francesi stanno sperimentando l’utilizzo di telecamere AI in occasione di due concerti dei Depeche Mode a Parigi, in vista del loro impiego per la sicurezza dei Giochi Olimpici. Questa sperimentazione rappresenta una novità per la Francia, che ha autorizzato l’uso dell’IA per la sicurezza di eventi sportivi e ricreativi.
L’utilizzo dell’IA per la sicurezza
Le telecamere dotate di IA sono state collocate intorno all’Accor Arena per analizzare i movimenti della folla e individuare attività anomale o pericolose. Durante i concerti dei Depeche Mode, i partecipanti non erano a conoscenza di questa misura di sicurezza controversa. La legge francese ha autorizzato l’uso dell’IA per la sicurezza degli eventi sportivi e ricreativi dopo gli incidenti verificatisi nella finale della Champions League 2022 allo Stade de France, quando i tifosi sono stati schiacciati in imbottigliamenti affollati e bersagliati da spray al peperoncino dalla polizia antisommossa.
L’obiettivo principale di questa sperimentazione è prepararsi alle Olimpiadi di Parigi, che si prevede presenteranno una sfida significativa per le forze di polizia. Si stima che saranno impiegati circa 30.000 agenti per garantire la sicurezza solo durante la cerimonia di apertura.
L’IA rileverà otto tipi di eventi
Durante questa sperimentazione in tempo reale, le telecamere IA dovrebbero avvisare gli operatori di sorveglianza di eventuali attività sospette o potenzialmente pericolose. L’IA è stata addestrata per rilevare otto tipi di eventi: traffico contrario al flusso, presenza di persone in zone proibite, movimento della folla, pacchi abbandonati, presenza o uso di armi, sovraffollamento, presenza di un corpo a terra e incendi.
Una volta che un incidente viene segnalato dall’IA, gli operatori di sorveglianza decidono se avvisare o meno le autorità e richiedere l’intervento della polizia. Tuttavia, per questa fase di test, il governo ha promesso che non verranno effettuati arresti basati sulle immagini selezionate dalle telecamere ad IA.
Per rassicurare i gruppi per la privacy preoccupati per il rischio di un sistema “Grande Fratello”, la legge vieta anche il riconoscimento facciale. Tuttavia, ciò non è stato sufficiente a placare il gruppo per la privacy Quadrature du Net, che ha affermato che questo piano rappresenta una pendenza scivolosa verso “la legittimazione” dell’aumento degli strumenti di sorveglianza utilizzati sul pubblico e che una maggiore dipendenza dalla tecnologia dell’IA porterà a più arresti arbitrari.