LinkedIn rafforza sicurezza con IA per rilevazione contenuti
29/11/2023
LinkedIn ha recentemente introdotto un sistema avanzato di rilevazione dei contenuti che violano le politiche, basato sull’intelligenza artificiale (IA). Questo nuovo sistema, secondo quanto riportato da LinkedIn, ha già portato a significative riduzioni nell’esposizione degli utenti a contenuti inappropriati.
L’introduzione del nuovo sistema di rilevazione basato su IA
Il nuovo sistema di LinkedIn filtra tutti i contenuti potenzialmente violativi attraverso il suo sistema di lettura basato su IA. Il processo poi filtra ogni esempio in base alla sua priorità. Il sistema calcola la probabilità che un determinato contenuto violi le politiche di LinkedIn utilizzando un insieme di modelli di intelligenza artificiale.
Secondo quanto spiegato da LinkedIn: “Con questo framework, i contenuti che entrano nelle code di revisione vengono valutati da un insieme di modelli di IA per calcolare la probabilità che violino le nostre politiche. I contenuti con una alta probabilità di essere non violativi vengono deprioritizzati, risparmiando risorse ai revisori umani, mentre i contenuti con una probabilità più alta di violare le politiche vengono prioritizzati rispetto agli altri in modo da poter essere rilevati e rimossi più rapidamente“.
Questo nuovo sistema si basa sull’automazione per determinare la gravità di un incidente e garantire che i casi più gravi vengano affrontati più rapidamente, riducendo il carico di lavoro dei moderatori umani di LinkedIn.
L’importanza dell’accuratezza del sistema di rilevazione automatica
Tuttavia, gran parte dell’efficacia di questo sistema dipende dall’accuratezza dei suoi sistemi di rilevazione automatica e dalla sua capacità di determinare se i post sono dannosi o meno. Per questo motivo, LinkedIn afferma di utilizzare nuovi modelli che si aggiornano costantemente in base agli ultimi esempi.
“Questi modelli sono addestrati su un campione rappresentativo di dati etichettati dagli umani provenienti dalla coda di revisione dei contenuti e testati su un altro campione non correlato nel tempo. Utilizziamo la ricerca casuale della griglia per la selezione degli iperparametri e il modello finale viene scelto in base alla migliore recall a una precisione estremamente elevata. Utilizziamo questa metrica di successo perché LinkedIn ha un livello molto elevato di qualità per l’applicazione delle regole di fiducia, quindi è importante mantenere una precisione molto elevata”.
LinkedIn afferma che il suo flusso di moderazione aggiornato è in grado di prendere decisioni automatiche per circa il 10% di tutti i contenuti in coda, superando le performance di un revisore umano tipico.
I Benefici del nuovo sistema di rlevazione basato su IA
Grazie a questi miglioramenti, LinkedIn è in grado di ridurre il carico di lavoro dei revisori umani, consentendo loro di concentrarsi sui contenuti che richiedono una revisione a causa della gravità e dell’ambiguità. Grazie alla prioritizzazione dinamica dei contenuti nella coda di revisione, questo framework è in grado di ridurre il tempo medio necessario per rilevare contenuti che violano le politiche del ~60%.
Si tratta di un buon utilizzo dell’intelligenza artificiale, anche se potrebbe influire sui contenuti che vengono infine visualizzati, a seconda di quanto il sistema sia in grado di rimanere aggiornato e garantire la rilevazione dei post che violano le regole. LinkedIn è fiducioso che questo nuovo sistema migliorerà l’esperienza degli utenti, ma potrebbe essere interessante verificare se si notano effettivamente miglioramenti e se si riscontrano meno post che violano le regole nell’app.