La rete metropolitana di Londra, sta sperimentando l’utilizzo di strumenti di sorveglianza basati sull’intelligenza artificiale per individuare i crimini in tempo reale. Questa innovativa tecnologia combina software di machine learning con le immagini delle telecamere di sorveglianza per monitorare il comportamento delle persone e individuare potenziali situazioni di pericolo.
I dettagli dello studio
Il trasporto pubblico di Londra (Transport for London, TfL), che gestisce la rete metropolitana di Londra, ha avviato un test pilota nella stazione di Willesden Green, situata nella parte nord-ovest della città. Durante il periodo compreso tra ottobre 2022 e settembre 2023, TfL ha testato ben 11 algoritmi di computer vision per monitorare le persone che passavano per la stazione.
Durante il test sono state emesse oltre 44.000 segnalazioni, di cui 19.000 sono state inviate in tempo reale al personale della stazione. L’obiettivo principale del test era individuare comportamenti aggressivi, armi, persone che cadevano sui binari o evitavano di pagare il biglietto.
Errori del sistema AI e preoccupazioni sulla privacy
Nonostante i risultati promettenti del test, ci sono state alcune problematiche durante la sperimentazione. Ad esempio, il sistema AI ha commesso degli errori, come segnalare erroneamente dei bambini che seguivano i propri genitori attraverso i tornelli come possibili evasori di tariffa o non riuscire a distinguere una bicicletta pieghevole da una non pieghevole.
Esperti di privacy che hanno analizzato i documenti espressero dubbi sulla precisione degli algoritmi di rilevamento degli oggetti. Inoltre, hanno sottolineato che non è chiaro quanti individui fossero a conoscenza del test e hanno avvertito che tali sistemi di sorveglianza potrebbero facilmente essere ampliati in futuro per includere sistemi di rilevamento più sofisticati o software di riconoscimento facciale.
“Anche se questo test non ha coinvolto il riconoscimento facciale, l’uso dell’IA in uno spazio pubblico per identificare comportamenti, analizzare il linguaggio del corpo e dedurre caratteristiche protette pone molte delle stesse domande scientifiche, etiche, legali e sociali sollevate dalle tecnologie di riconoscimento facciale.” afferma Michael Birtwistle, direttore associato dell’Istituto di ricerca indipendente Ada Lovelace.
Risultati del test e possibili sviluppi futuri
In risposta alla richiesta di informazioni di WIRED, TfL ha spiegato che ha utilizzato immagini CCTV esistenti, algoritmi AI e “numerosi modelli di rilevamento” per individuare pattern di comportamento. Secondo TfL, fornendo al personale della stazione informazioni e notifiche sul movimento e sul comportamento dei passeggeri, si spera che possano rispondere più rapidamente a eventuali situazioni di emergenza. TfL ha anche affermato che i risultati del test hanno fornito informazioni preziose sul fenomeno dell’evasione del pagamento del biglietto e che i dati raccolti sono conformi alle politiche sulla privacy dell’azienda.
Al momento, TfL sta valutando la possibilità di avviare una seconda fase del test, ma non sono state prese altre decisioni riguardo all’espansione di questa tecnologia, né riguardo all’implementazione in altre stazioni o all’aggiunta di nuove funzionalità. TfL ha sottolineato che qualsiasi estensione dell’uso di questa tecnologia sarebbe soggetta a una completa consultazione con le comunità locali e con altre parti interessate, compresi esperti del settore.

