TECNOLOGIA, INTERNET TRENDS, GAMING, BIG DATA

Slack e l’utilizzo dei dati delle tue chat per addestrare i suoi modelli di apprendimento automatico

Slack e l’utilizzo dei dati delle tue chat per addestrare i suoi modelli di apprendimento automatico

By auroraoddi

Slack, la popolare piattaforma di comunicazione aziendale, ha svelato una pratica controversa riguardante l’utilizzo dei dati dei suoi utenti. Secondo quanto emerso, l’azienda sta sfruttando i contenuti delle chat, dei file e di altre informazioni condivise dagli utenti per addestrare i suoi modelli di apprendimento automatico (machine learning). Questa pratica, definita “opt-out”, significa che i dati privati degli utenti vengono utilizzati per l’addestramento dei modelli di IA di default, a meno che gli utenti non richiedano espressamente di essere esclusi.

L’opt-out: una procedura complicata per gli utenti

La possibilità di opt-out da questa pratica esiste, ma richiede un notevole sforzo da parte degli utenti. Infatti, per escludere i propri dati dall’addestramento dei modelli di IA di Slack, gli utenti devono contattare il responsabile della loro area di lavoro (workspace) su Slack e chiedere a quest’ultimo di inviare un’e-mail all’azienda per richiedere l’esclusione. Gli utenti non possono effettuare questa richiesta direttamente, dovendo passare attraverso il loro amministratore di workspace.

Mancanza di trasparenza nelle politiche sulla privacy di Slack

Le politiche sulla privacy di Slack sembrano presentare alcune incongruenze e mancanze di chiarezza riguardo all’utilizzo dei dati degli utenti. Da un lato, l’azienda afferma che non è possibile accedere ai contenuti durante lo sviluppo dei modelli di IA. Dall’altro, la politica di addestramento dei modelli di machine learning sembra contraddire questa dichiarazione, lasciando spazio a confusione e incertezza.

L’utilizzo dei dati per i modelli di IA non generativi

Secondo le spiegazioni fornite da Slack, i dati degli utenti non vengono utilizzati per addestrare i suoi strumenti di IA generativa, ma piuttosto per modelli di machine learning destinati ad applicazioni come le raccomandazioni di canali, emoji e risultati di ricerca. Tuttavia, la distinzione tra questi diversi tipi di modelli di IA non è sempre chiara per gli utenti.

Preoccupazioni sulla riservatezza e la sicurezza dei dati

La pratica di Slack di utilizzare i dati degli utenti per l’addestramento dei modelli di IA, anche se limitata a determinati scopi, solleva preoccupazioni sulla riservatezza e la sicurezza dei dati personali degli utenti. Molti temono che, nonostante le rassicurazioni dell’azienda, i dati potrebbero essere vulnerabili o utilizzati in modi non autorizzati.

L’importanza della trasparenza e del controllo degli utenti

Questa vicenda evidenzia l’importanza della trasparenza da parte delle aziende che operano nel settore delle tecnologie dell’informazione e della comunicazione. Gli utenti dovrebbero avere il pieno controllo sui propri dati e la possibilità di scegliere se consentirne l’utilizzo per scopi di addestramento di modelli di IA.

Il ruolo degli amministratori di workspace

Il fatto che gli utenti debbano rivolgersi agli amministratori di workspace per richiedere l’esclusione dall’addestramento dei modelli di IA di Slack aggiunge un ulteriore livello di complessità. Questo potrebbe scoraggiare molti utenti dal perseguire questa opzione, rendendo di fatto l’opt-out poco accessibile.

Implicazioni per il futuro dell’IA e della privacy

Questa vicenda solleva interrogativi più ampi riguardo all’utilizzo etico dei dati personali per l’addestramento di sistemi di IA. Mentre l’IA può offrire numerosi vantaggi, è fondamentale che le aziende che la sviluppano adottino pratiche trasparenti e rispettose della privacy degli utenti.

Fonte dell’articolo qui.

Scopri di più da Syrus

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continue reading

Scopri di più da Syrus

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continue reading