Una seduta di psicoanalisi con l’intelligenza artificiale: ma davvero?

Una seduta di psicoanalisi con l’intelligenza artificiale: ma davvero?

18/05/2023 0 By fogliotiziana

Le intelligenze artificiali sembrano onnipotenti. Sono capaci di fornire informazioni, correggere errori, tradurre lingue, spiegare concetti, confrontare dati… Ma questa è solo l’apparenza. Se si va oltre la superficie, si scopre che non sono prive di limiti.

Per esempio, immaginare una seduta di psicoanalisi con un modello di elaborazione del linguaggio naturale appare assurdo. In questo breve articolo illustriamo come un chatbot potrebbe (in teoria) emulare uno specialista. Ma soprattutto perché, in realtà… si tratta solo di un’illusione.

Ci sono alcuni chatbot che imitano l’approccio di uno psicologo o di uno psicoanalista, come ad esempio Woebot, disponibile sul Google Play Store e sull’Apple App Store, che incoraggia l’utente a riflettere sulle situazioni utilizzando strumenti ispirati alla terapia cognitivo-comportamentale (CBT). Inoltre, il rilevatore dell’umore mostra i cambiamenti positivi apportati nel corso dei giorni e delle settimane; oppure Replika, un altro chatbot basato sull’intelligenza artificiale disponibile sul Google Play Store e sull’Apple App Store, che fornisce una connessione emotiva e un’amicizia virtuale per supportare le persone che attraversano depressione, ansia o momenti difficili.

Con tutta questa scelta, tanto vale pensare a un’altra carriera se sei un dottore in questo campo, no? NO. In buona fede, questi assistenti virtuali sono puramente ricreativi. Ecco perché.

Psicologia: una scienza che va ben oltre la logica

Che ci piaccia o no, le IA rimangono software per computer. Queste tecnologie non possiedono le sfumature, le emozioni, le opinioni che caratterizzano gli esseri umani. Si limitano a replicare i comportamenti umani attraverso algoritmi e dati, senza comprenderne il significato profondo.

Il tuo chatbot sembra capirti? Tuttavia, non capisce proprio niente, almeno nel senso più crudo del termine. Elabora i dati, li incrocia e fornisce la risposta che sembra la più appropriata.

Perché i chatbot conversazionali sono estremamente docili. Sono stati progettati per servire e aiutare. Bisogna immaginare il cliché del robottino che, con il suo vassoietto tra gli artigli, arrotola ai suoi padroni per servire loro l’aperitivo, e non è quello che si chiede a uno specialista della salute mentale.

Intelligenza artificiale in psicoanalisi: sciocchezze

Un evento recente chiarisce perché l’intelligenza artificiale non è solo inutile, ma pericolosa quando la usi davvero come guida nella tua vita.

un uomo belga, infatti, si è tolto la vita dopo una conversazione sulla crisi climatica, durata sei settimane, con un chatbot di intelligenza artificiale. La vedova, che ha preferito non rivelare la sua identità, ha raccontato che suo marito Pierre (nome di fantasia) ha sviluppato una forte “ansia ecologica” dopo aver iniziato a conversare con Eliza, un chatbot AI disponibile su un’applicazione chiamata Chai.

Ok, non stava usando questo modello di elaborazione del linguaggio naturale basato su ChatGPT come uno psicologo. Tuttavia, questo chatbot è stato progettato per rassicurare e supportare. L’apprendimento automatico ha permesso a Eliza di elaborare i messaggi e quindi costruire le risposte ideali. In teoria, almeno.

All’epoca, considerando tutti i fattori in gioco, l’unica soluzione razionale sembrava essere il suicidio. Non c’era alcuna volontà di nuocere da parte del chatbot. Anzi, si trattava di un gesto altruistico, seppur maldestro. Ma si sa che le buone intenzioni non bastano a evitare le conseguenze nefaste. Questa intelligenza artificiale si basava su un algoritmo, nient’altro. Era capace di simulare l’empatia, ma non di provarla realmente. Il resto è storia nota.

AI e psicologia: due universi incompatibili

Sì, in un certo senso, i chatbot stanno acquisendo sfumature man mano che la tecnologia avanza. Tuttavia, non hanno né istinto né pensiero critico e mai potranno averlo. Tanto meno un’anima.

Immagina che una persona abbia difficoltà ad addormentarsi. Un chatbot potrebbe (se diventasse legale) consigliargli dei farmaci. Non perché sia ​​la soluzione migliore per il paziente. Semplicemente perché, secondo il suo database, funzionerà.

La psiche umana risulta essere molto più complessa della programmazione informatica. Ancora oggi certi fenomeni ci sfuggono. È stato recentemente scoperto che durante un’interruzione del server Fortnite nel 2018… il traffico verso un sito per adulti ha registrato un incremento esponenziale delle visite. Ancora più sorprendentemente, le ricerche che menzionavano il nome del gioco all’interno di questo sito NSFW erano salite alle stelle.

Come spiegare questa interconnessione? Cosa si aspettavano di trovare gli utenti? Era un sistema di compensazione? I ricercatori ancora oggi hanno difficoltà a capire le motivazioni. E di certo non può arrivarci un’intelligenza artificiale. Per poter interagire con una persona, con un “paziente”, è necessario saper cogliere le emozioni altrui, i loro traumi, i loro bisogni. Solo così si può formulare una diagnosi corretta e proporre una terapia adeguata.

AI come strizzacervelli: solo per divertimento

Vuoi vedere cosa pensa un chatbot della tua attuale relazione sentimentale? Hai immaginazione e vuoi confrontare questi psicologi virtuali con una situazione immaginata da zero? Divertiti.

Se invece incontri difficoltà reali, consulta un esperto, uno vero. Non sono tutti eccezionali, ma hanno il “merito” di essere umani. Nell’era in cui tutto è connesso, è assolutamente necessario mantenere questo legame con i nostri simili.

Sperare di risolvere tutto con l’IA è utopistico. Per quanto riguarda la psicologia, è difficile vedere come possa fornire più di un espediente.

Ti consiglio di leggere anche…

3 cose da non chiedere mai a ChatGPT…

Ha affidato le sue finanze a ChatGPT: ecco il risultato

ChatGPT è incredibile, ma Notion AI è meglio… l’hai già provato?