L’adozione dell’IA generativa nell’EMEA è ostacolata da questioni di fiducia, etica e competenze
29/05/2024
Negli ultimi anni, l’IA generativa ha suscitato un enorme interesse e aspettative per il suo potenziale rivoluzionario. Dalla pubblicazione di ChatGPT da parte di OpenAI nel novembre 2022, questa tecnologia è stata al centro di un intenso dibattito, con molti che la considerano una delle innovazioni più significative del nostro tempo. Tuttavia, nonostante il 79% delle organizzazioni riferisca che l’IA generativa contribuisce positivamente al business, una serie di sfide legate alla fiducia, all’etica e alle competenze stanno ostacolando la sua adozione diffusa sia nella sfera personale che in quella professionale dei consumatori nell’EMEA.
L’impatto della disinformazione, delle inesattezze e delle allucinazioni dell’IA
Uno dei principali problemi riguarda la fiducia nei confronti di ciò che l’IA generativa produce. Oltre un terzo del pubblico è preoccupato per il potenziale dell’IA di generare fake news (36%) e per il suo uso improprio da parte degli hacker (42%), mentre la metà dei leader aziendali riferisce di dover affrontare la disinformazione prodotta dall’IA generativa. Inoltre, l’affidabilità delle informazioni fornite dall’IA generativa è messa in discussione, con il 50% del pubblico che ritiene che i dati ricevuti siano inesatti e il 38% che li percepisce come obsoleti. Sul fronte aziendale, le preoccupazioni includono l’infrazione dei diritti di copyright o di proprietà intellettuale (40%) e la produzione di output inaspettati o indesiderati (36%).
Un problema di fiducia cruciale sia per le aziende (62%) che per il pubblico (74%) riguarda le allucinazioni dell’IA, ovvero la generazione di output illogici o errati. Per le aziende, la sfida consiste nell’applicare l’IA generativa a casi d’uso appropriati, supportati dalla giusta tecnologia e da misure di sicurezza adeguate, per mitigare queste preoccupazioni. Quasi la metà dei consumatori (45%) è favorevole all’introduzione di misure normative sull’uso dell’IA.
Persistono preoccupazioni etiche e rischi nell’uso dell’IA generativa
Oltre a queste sfide, emergono sentimenti forti e simili sulle preoccupazioni etiche e sui rischi associati all’IA generativa sia tra i leader aziendali che tra i consumatori. Più della metà del pubblico in generale (53%) si oppone all’uso dell’IA generativa per prendere decisioni etiche. Nel frattempo, il 41% dei responsabili aziendali è preoccupato per la sua applicazione in aree decisionali critiche. Ci sono distinzioni nelle aree specifiche in cui il suo uso è scoraggiato; i consumatori si oppongono notevolmente al suo utilizzo in ambito politico (46%), mentre le aziende sono caute nel suo dispiegamento in ambito sanitario (40%).
Queste preoccupazioni trovano una certa conferma nei risultati della ricerca, che evidenziano preoccupanti lacune nelle pratiche organizzative. Solo un terzo dei leader ha confermato che le proprie aziende si assicurano che i dati utilizzati per addestrare l’IA generativa siano diversificati e privi di pregiudizi. Inoltre, solo il 36% ha stabilito linee guida etiche e il 52% ha definito politiche sulla privacy e sulla sicurezza dei dati per le applicazioni di IA generativa.
Questa mancanza di attenzione all’integrità dei dati e alle considerazioni etiche mette le aziende a rischio. Il 63% dei leader aziendali cita l’etica come loro principale preoccupazione con l’IA generativa, seguita da problemi legati ai dati (62%). Questo scenario sottolinea l’importanza di una migliore governance per creare fiducia e mitigare i rischi legati all’uso dell’IA generativa da parte dei dipendenti sul posto di lavoro.
Il crescente ruolo delle competenze sull’IA generativa e la necessità di una maggiore alfabetizzazione dei dati
Mentre l’IA generativa evolve, stabilire le competenze rilevanti e migliorare l’alfabetizzazione dei dati saranno fondamentali per realizzarne appieno il potenziale. I consumatori stanno sempre più utilizzando le tecnologie di IA generativa in vari scenari, tra cui il recupero di informazioni, la comunicazione via e-mail e l’acquisizione di competenze. I leader aziendali affermano di utilizzare l’IA generativa per l’analisi dei dati, la cybersicurezza e il supporto ai clienti, e nonostante il successo di progetti pilota, persistono alcune sfide, tra cui problemi di sicurezza, questioni di privacy dei dati e qualità e affidabilità degli output.
Trevor Schulze, CIO di Alteryx, ha sottolineato la necessità sia per le imprese che per il pubblico in generale di comprendere appieno il valore dell’IA e affrontare le preoccupazioni comuni man mano che navigano nelle fasi iniziali dell’adozione dell’IA generativa. Ha osservato che affrontare le questioni di fiducia, le preoccupazioni etiche, la carenza di competenze, i timori di violazione della privacy e i pregiudizi algoritmici sono compiti cruciali. Schulze ha sottolineato la necessità per le aziende di accelerare il loro percorso di gestione dei dati, adottare una governance solida e consentire alle persone non tecniche di accedere e analizzare i dati in modo sicuro e affidabile, affrontando le preoccupazioni relative alla privacy e ai pregiudizi, al fine di trarre davvero beneficio da questa tecnologia “rivoluzionaria”.
Fonte dell’articolo qui.