Le conversazioni con i chatbot possono sembrare intime, ma in realtà condividi ogni parola con un’azienda privata… Gli strumenti di intelligenza artificiale, infatti, sono diventati sempre più popolari e sofisticati. Tuttavia, non dobbiamo dimenticare che non sono infallibili.
Esistono rischi intrinseci associati all’utilizzo di chatbot AI, come problemi di privacy e potenziali attacchi informatici. È fondamentale prestare attenzione quando si interagisce con i chatbot. Vediamo quali sono i rischi di rivelare le nostre informazioni ai chatbot AI e quali informazioni dovremmo tenere per noi.
ChatGPT e privacy: cosa fa Open AI con i tuoi dati?
I rischi legati all’utilizzo dei chatbot AI
I chatbot AI possono mettere a repentaglio la nostra privacy e la nostra sicurezza con le loro vulnerabilità. Forse ti sorprenderà, ma ChatGPT, Bing Chat e gli altri chatbot AI possono inavvertitamente esporre le tue informazioni personali online. Il motivo è semplice: si basano su modelli linguistici di intelligenza artificiale, che ricavano informazioni dai dati degli utenti.
ChatGPT, come molti altri motori di ricerca, raccolgono dati personali. Il chatbot, infatti, può conservare i dati delle chat per migliorare il modello senza limiti di dimensione o di tempo, anche se è possibile disabilitare la cronologia della chat e proteggere i tuoi dati personali.
Come eliminare la cronologia e l’account di ChatGPT
Poiché i chatbot AI memorizzano i dati sui server, diventano vulnerabili ai tentativi di hacking. Questi server contengono una grande quantità di informazioni che i criminali informatici possono sfruttare in vari modi. Possono infiltrarsi nei server, rubare i dati e venderli sui mercati del dark web. Inoltre, gli hacker possono sfruttare questi dati per decifrare le password e ottenere un accesso non autorizzato ai vostri dispositivi.
Inoltre, i dati generati dalle interazioni con i chatbot non sono riservati solo alle rispettive aziende. Pur sostenendo che i dati non vengono venduti per scopi pubblicitari o di marketing, vengono condivisi con alcune terze parti per esigenze di manutenzione del sistema.
OpenAI, l’organizzazione che sta dietro a ChatGPT, riconosce di condividere i dati con “un gruppo selezionato di fornitori di servizi fidati” e che alcuni “addetti autorizzati di OpenAI” possono avere accesso ai dati. Queste pratiche sollevano ulteriori preoccupazioni sulla sicurezza delle interazioni con i chatbot, poiché i critici sostengono che i problemi di sicurezza dell’IA generativa potrebbero peggiorare.
Cosa non condividere con i chatbot AI?
Ecco cinque best practice da seguire quando si interagisce con i chatbot AI per proteggere la privacy.
1. Dati finanziari
I criminali informatici possono utilizzare chatbot AI come ChatGPT per violare il tuo conto bancario. Con la diffusione dei chatbot AI, molti utenti si sono rivolti a questi modelli linguistici per ottenere consigli finanziari e gestire le finanze personali. Sebbene possano migliorare l’alfabetizzazione finanziaria, è fondamentale conoscere i potenziali pericoli legati alla condivisione di dati finanziari con i chatbot AI.
Quando si utilizzano i chatbot come consulenti finanziari, si rischia di esporre le proprie informazioni finanziarie a potenziali criminali informatici che potrebbero sfruttarle per prosciugare i propri conti. Nonostante le aziende dichiarino di anonimizzare i dati delle conversazioni, terze parti e alcuni dipendenti potrebbero comunque avervi accesso. Ciò solleva preoccupazioni in merito alla profilazione, dove i tuoi dati finanziari potrebbero essere utilizzati per scopi dannosi come campagne ransomware o venduti ad agenzie di marketing.
Per proteggere le tue informazioni finanziarie dai chatbot di intelligenza artificiale, devi prestare attenzione a ciò che condividi con questi modelli di intelligenza artificiale generativa. È consigliabile limitare le interazioni all’acquisizione di informazioni generali e alla formulazione di domande generiche. Se hai bisogno di una consulenza finanziaria personalizzata, potrebbero esserci opzioni migliori che affidarsi esclusivamente ai bot di IA. Questi possono fornire informazioni imprecise o fuorvianti, mettendo potenzialmente a rischio il tuo denaro duramente guadagnato. È invece consigliabile rivolgersi a un consulente finanziario abilitato, in grado di fornire una guida affidabile e personalizzata.
2. I tuoi pensieri personali e intimi
Molti utenti si rivolgono ai chatbot di intelligenza artificiale per cercare un aiuto, ignari delle potenziali conseguenze per il loro benessere mentale. È essenziale comprendere i pericoli derivanti dalla divulgazione di informazioni personali e intime a questi chatbot.
In primo luogo, i chatbot non hanno una conoscenza del mondo reale e possono offrire solo risposte generiche alle domande relative alla salute mentale. Ciò significa che i farmaci o i trattamenti che suggeriscono potrebbero non essere appropriati per le tue esigenze specifiche e potrebbero danneggiare la tua salute.
Inoltre, la condivisione di pensieri personali con chatbot AI solleva notevoli problemi di privacy, poiché i segreti e i pensieri intimi degli utenti potrebbero trapelare online. Persone malintenzionate potrebbero sfruttare queste informazioni per spiarvi o vendere i vostri dati sul dark web. Pertanto, salvaguardare la privacy dei pensieri personali quando si interagisce con i chatbot AI è di estrema importanza.
È fondamentale affrontare i chatbot AI come strumenti di informazione e supporto generale piuttosto che come sostituto di una terapia professionale. Se si necessita di una consulenza o di un trattamento per la salute mentale, è sempre consigliabile rivolgersi a un professionista qualificato. Questi possono fornire una guida personalizzata e affidabile, dando priorità alla privacy e al benessere dell’utente.
3. Informazioni riservate del vostro posto di lavoro
Un altro errore che gli utenti devono evitare quando interagiscono con i chatbot AI è la condivisione di informazioni riservate relative al lavoro. Persino importanti colossi tecnologici come Apple, Samsung, JPMorgan e Google, il creatore di Bard, hanno vieatato ai propri dipendenti di utilizzare di chatbot AI sul posto di lavoro.
Un rapporto di Bloomberg ha portato alla luce un caso in cui i dipendenti di Samsung hanno utilizzato ChatGPT per scopi di codifica e hanno inavvertitamente caricato codice sensibile sulla piattaforma di IA generativa. Questo incidente ha portato alla divulgazione non autorizzata di informazioni riservate su Samsung, spingendo l’azienda a imporre il divieto di utilizzo dei chatbot di IA.
Allo stesso modo, molti dipendenti si affidano ai chatbot di intelligenza artificiale per riassumere i verbali delle riunioni o automatizzare le attività ripetitive, con il rischio di esporre involontariamente dati sensibili. Pertanto, mantenere la privacy delle informazioni di lavoro riservate e astenersi dal condividerle con i chatbot AI è di estrema importanza.
Gli utenti possono salvaguardare le loro informazioni sensibili e proteggere le loro organizzazioni da fughe involontarie o violazioni dei dati facendo attenzione ai rischi associati alla condivisione dei dati relativi al lavoro.
4. Password
È fondamentale sottolineare che la condivisione delle password online, anche con i modelli linguistici, è assolutamente da evitare. Questi modelli memorizzano i vostri dati su server pubblici e la divulgazione delle vostre password mette a rischio la vostra privacy. In caso di violazione dei server, gli hacker possono accedere alle vostre password e sfruttarle per ottenere danni economici.
Astenendosi dal condividere le proprie password con questi modelli di chatbot, è possibile salvaguardare in modo proattivo i propri dati personali e ridurre la probabilità di cadere vittima di minacce informatiche.
5. Dettagli sulla residenza e altri dati personali
È importante evitare di condividere informazioni di identificazione personale (PII) con i chatbot di intelligenza artificiale. Le PII comprendono dati sensibili che possono essere utilizzati per identificare o localizzare l’utente, tra cui la sua posizione, il numero di previdenza sociale, la data di nascita e le informazioni sanitarie. Garantire la privacy dei dati personali e residenziali quando si interagisce con le chatbot AI deve essere una priorità assoluta.
Evitare l’eccessiva condivisione con i chatbot AI
In conclusione, se da un lato la tecnologia dei chatbot AI offre progressi significativi, dall’altro presenta anche seri rischi per la privacy. Proteggere i propri dati controllando le informazioni condivise è fondamentale quando si interagisce con i chatbot AI.
Bing Chat: come far rispondere il chatbot con i suoi dati di addestramento

