La seduta algoritmica e il miraggio dell’empatia artificiale

Lo psicologo Gary Greenberg mette alla prova la profondità dell'intelligenza artificiale nel ruolo di analista, scoperchiando i limiti della simulazione terapeutica

La seduta algoritmica e il miraggio dell’empatia artificiale
Condividi:
3 min di lettura

Nel dicembre 2025, il dibattito sulle frontiere della salute mentale digitale è stato riacceso dai risultati di una serie di sessioni sperimentali condotte dal clinico Gary Greenberg, il quale ha sottoposto i più avanzati modelli di linguaggio a un rigoroso test di analisi psicologica. L'esperimento, documentato ampiamente sulle testate di approfondimento culturale statunitense, non mirava a valutare l'accuratezza diagnostica della macchina, ma la sua capacità di sostenere il peso emotivo e il transfert tipici della relazione tra paziente e terapeuta. I risultati indicano che, nonostante una fluidità verbale impressionante, i sistemi sintetici mancano di quella risonanza biologica necessaria per una reale guarigione psichica. L'iniziativa nasce dalla crescente diffusione di applicazioni di supporto psicologico automatizzato, sollevando dubbi sulla reale efficacia di una cura priva di un interlocutore senziente.

L'interazione con un algoritmo durante una seduta di analisi produce un effetto specchio che può inizialmente apparire benefico. La macchina, programmata per essere infinitamente paziente e priva di giudizio, restituisce risposte calibrate sulla base di vasti database di letteratura psicologica. Tuttavia, Greenberg sottolinea che questa simmetria verbale è priva di corpo e di storia personale, elementi che costituiscono il nucleo della fiducia umana. La psicoterapia non è soltanto uno scambio di informazioni o di consigli comportamentali, ma un incontro tra due vulnerabilità; una condizione che un software, per sua natura privo di sofferenza e di mortalità, non potrà mai replicare.

Il rischio di questa nuova tendenza risiede nella mercificazione del conforto interiore. La facilità di accesso a un analista digitale disponibile in ogni momento trasforma il percorso di introspezione in un servizio di consumo immediato. Secondo gli esperti di etica clinica delle università americane, la scomparsa dell'attrito e della sfida che un vero terapeuta pone al paziente potrebbe portare a una forma di anestesia intellettuale. Se la macchina si limita a confermare le narrazioni del soggetto per compiacerlo, il processo di crescita e di cambiamento radicale della personalità viene inevitabilmente ostacolato da un'armonia artificiale e priva di profondità.

Un aspetto centrale emerso dall'esperimento riguarda il concetto di "presenza". Nella pratica clinica, il silenzio, il linguaggio del corpo e l'intuizione del momento sono fondamentali per decifrare l'inconscio. L'intelligenza artificiale, pur essendo capace di citare Freud o Jung con precisione millimetrica, opera in un vuoto esperienziale. La sua mimesi è talmente perfetta da risultare, paradossalmente, la prova della sua vacuità: un involucro di parole ineccepibili che nasconde l'assenza di una soggettività. La terapia diventa così una recita dove il paziente rischia di innamorarsi della propria stessa immagine riflessa in un codice binario ben istruito.

Le implicazioni sociali di questa delega cognitiva alla tecnologia sono profonde. In un mondo segnato da una crisi globale della salute mentale e da una cronica carenza di professionisti, la tentazione di affidare le fasce più fragili della popolazione a "bot terapeutici" è forte per i governi e le assicurazioni sanitarie. Tuttavia, la ricerca internazionale avverte che la soluzione tecnologica potrebbe esacerbare il senso di solitudine invece di risolverlo. Il bisogno di essere "visti" da un altro essere umano è un imperativo biologico che non può essere soddisfatto da un'elaborazione statistica, per quanto sofisticata essa sia.

In ultima analisi, il lavoro di Greenberg ci ricorda che la parola, in analisi, ha un peso perché è pronunciata da qualcuno che ne condivide il significato mortale. La sfida del futuro non sarà migliorare gli algoritmi affinché sembrino più umani, ma preservare gli spazi di incontro reale in una società che tende a digitalizzare ogni forma di sofferenza. La cura dell'anima richiede un tempo e una fatica che non sono compatibili con la logica dell'ottimizzazione software. Forse, il valore più grande dell'intelligenza artificiale in questo campo sarà proprio quello di evidenziare, per contrasto, l'insostituibile valore del calore umano e del dubbio condiviso.

Tag: