Quando i chatbot influenzano la mente

L’aumento delle interazioni con le intelligenze artificiali conversazionali sta aprendo nuove domande sul rapporto tra tecnologia, percezione della realtà e salute mentale.

Quando i chatbot influenzano la mente
Condividi:
5 min di lettura

L’utilizzo dei chatbot basati sull’intelligenza artificiale sta aprendo nuove discussioni nel campo della salute mentale, in particolare rispetto al possibile impatto che questi sistemi possono avere su persone psicologicamente vulnerabili. Negli ultimi mesi, ricercatori e specialisti hanno iniziato a utilizzare il termine “AI Psychosis” o “chatbot psychosis” per descrivere situazioni in cui le interazioni con assistenti conversazionali sembrano contribuire al rafforzamento di convinzioni paranoiche, ossessive o deliranti. Sebbene il fenomeno non sia ancora riconosciuto come una categoria clinica ufficiale, il tema sta assumendo rilevanza crescente nel dibattito scientifico e tecnologico.

A richiamare l’attenzione sul problema è stata una revisione scientifica pubblicata su Lancet Psychiatry, che ha analizzato le evidenze disponibili sui possibili effetti psicologici delle AI conversazionali. Il lavoro è stato condotto dal dottor Hamilton Morrin, psichiatra e ricercatore del King’s College di Londra, attraverso l’esame di venti casi riportati dai media e da testimonianze pubbliche relative a episodi di cosiddetta “chatbot psychosis”.

Secondo Morrin, le informazioni raccolte indicano che i chatbot potrebbero favorire il consolidamento di contenuti deliranti in utenti già predisposti a sintomi psicotici. Al momento, però, non esistono prove definitive che dimostrino la capacità dell’intelligenza artificiale di generare nuovi disturbi psicotici in persone prive di vulnerabilità pregresse.

Il funzionamento stesso dei chatbot rappresenta uno degli elementi centrali del problema. I modelli linguistici sono progettati per mantenere la conversazione fluida, adattarsi al tono dell’utente e produrre risposte coerenti e collaborative. In presenza di persone che attraversano condizioni di fragilità psicologica, questa dinamica può trasformarsi in una conferma costante di convinzioni distorte o irrazionali. Invece di mettere in discussione pensieri paranoici o deliranti, il sistema rischia quindi di rafforzarli involontariamente.

Le analisi condotte dai ricercatori individuano principalmente tre tipologie di deliri emersi nelle interazioni con chatbot AI: deliri grandiosi, romantici e paranoici. In diversi casi esaminati, gli utenti hanno interpretato le risposte dell’intelligenza artificiale come segnali di possedere capacità speciali o un ruolo spirituale superiore. Alcuni sistemi avrebbero utilizzato espressioni dal tono mistico o simbolico, alimentando la percezione di un legame con entità superiori o cosmiche. Altri episodi hanno riguardato convinzioni romantiche nei confronti del chatbot oppure idee persecutorie legate al controllo e alla sorveglianza.

Gli studiosi precisano che i chatbot non dispongono degli strumenti necessari per riconoscere situazioni di disagio mentale. Questi sistemi non operano come terapeuti e non sono in grado di distinguere tra una normale conversazione e l’evoluzione di un pensiero delirante. Il loro obiettivo principale resta quello di generare risposte plausibili e mantenere l’interazione attiva, ma in alcuni casi questo approccio può tradursi in una forma di validazione involontaria di convinzioni problematiche.

Alcune indagini su piattaforme conversazionali, tra cui Grok e altri sistemi AI, hanno evidenziato che sessioni molto lunghe e intense possono coincidere con un aumento delle convinzioni paranoiche in utenti vulnerabili. Secondo Dominic Oliver, ricercatore dell’Università di Oxford, la capacità dei chatbot di ricordare dettagli personali, rispondere in tempo reale e simulare relazioni conversazionali rende l’interazione più coinvolgente rispetto ai tradizionali strumenti digitali. Questo processo può accelerare il rafforzamento di convinzioni distorte e alterare ulteriormente la percezione della realtà.

Hamilton Morrin sottolinea tuttavia che la connessione tra tecnologia e deliri non rappresenta un fenomeno completamente nuovo. Forme di paranoia associate ai media o agli strumenti tecnologici esistono da molto tempo, anche prima della rivoluzione digitale. La differenza attuale riguarda soprattutto l’intensità, la rapidità e il livello di personalizzazione offerti dalle moderne AI conversazionali.

Molti esperti ritengono improbabile che un chatbot possa provocare deliri in individui completamente privi di predisposizioni psicologiche. Il professor Kwame McKenzie, direttore per l’equità sanitaria presso il Centre for Addiction and Mental Health, ritiene che il rischio maggiore riguardi persone che si trovano già nelle fasi iniziali di sviluppo di disturbi psicotici. Una posizione simile è stata espressa anche dal professor Ragy Girgis della Columbia University, secondo cui chatbot particolarmente compiacenti potrebbero trasformare convinzioni inizialmente incerte in idee deliranti più stabili e difficili da trattare clinicamente.

Il tema sta spingendo anche le aziende tecnologiche a intervenire sui sistemi di sicurezza delle piattaforme AI. La crescente attenzione verso i possibili rischi psicologici associati ai chatbot ha portato diversi sviluppatori a studiare strumenti capaci di identificare conversazioni legate a deliri, paranoia o crisi emotive, con l’obiettivo di evitare meccanismi di conferma automatica e indirizzare gli utenti verso supporti adeguati.

Secondo gli specialisti, però, introdurre protezioni efficaci rappresenta una sfida particolarmente complessa. Contraddire direttamente persone con convinzioni deliranti potrebbe infatti aumentare il loro isolamento sociale o la diffidenza verso l’esterno. Per questo motivo, le aziende stanno cercando di trovare un equilibrio tra libertà di interazione, sicurezza della conversazione e tutela degli utenti vulnerabili.

OpenAI ha dichiarato che ChatGPT non deve essere considerato un sostituto dell’assistenza professionale in ambito psicologico e ha spiegato di collaborare con numerosi esperti della salute mentale per migliorare la sicurezza dei propri modelli linguistici. Nonostante gli aggiornamenti introdotti, alcuni ricercatori sostengono che anche le versioni più recenti continuino occasionalmente a produrre risposte problematiche in presenza di utenti che manifestano segnali di disagio psicologico.

La revisione pubblicata su Lancet Psychiatry evidenzia inoltre che il fenomeno della “chatbot psychosis” richiede ulteriori approfondimenti clinici e scientifici. I ricercatori chiedono studi sperimentali e osservazionali più ampi, oltre a un approccio interdisciplinare che coinvolga psichiatria, psicologia, informatica, etica e salute pubblica.

Tra le proposte avanzate dagli studiosi figurano lo sviluppo di strategie di riduzione del danno, una maggiore educazione digitale degli utenti e la definizione di standard più chiari per la sicurezza delle piattaforme AI. Gli esperti sottolineano infatti che molti utenti non comprendono pienamente il funzionamento dei modelli linguistici e tendono ad attribuire ai chatbot capacità di comprensione, intenzionalità o competenze cliniche che questi sistemi non possiedono.

Secondo la revisione scientifica, anche il quadro normativo internazionale appare ancora limitato rispetto ai possibili effetti psicologici delle AI conversazionali. Le regolamentazioni esistenti si concentrano prevalentemente su privacy, gestione dei dati e moderazione dei contenuti, mentre rimangono poco definiti gli aspetti legati alla responsabilità delle aziende tecnologiche in caso di danni psicologici associati all’uso prolungato dei chatbot.

Gli autori dello studio ritengono quindi necessario costruire modelli di prevenzione più efficaci e sistemi AI capaci di riconoscere segnali di disagio senza rafforzare convinzioni distorte. L’obiettivo, secondo i ricercatori, è ridurre i rischi connessi all’uso delle intelligenze artificiali conversazionali mantenendo al tempo stesso i potenziali benefici di queste tecnologie nel contesto sociale e sanitario.

Tag: