Già in passato Terza Notizia aveva affrontato il rapporto tra chatbot e salute mentale, sollevando interrogativi sul ruolo che queste tecnologie possono assumere nei momenti di fragilità.
Oggi la cronaca riporta con forza il tema al centro del dibattito, dopo il caso di Adam Raine, un adolescente statunitense che nel 2024 si è tolto la vita dopo mesi di conversazioni con un chatbot generativo. I suoi genitori hanno recentemente intentato causa, accusando l’azienda di non aver previsto i rischi di un’interazione così prolungata e priva di adeguati filtri di sicurezza. Non è solo una tragedia individuale, ma un segnale di come l’intelligenza artificiale stia varcando confini che toccano la parte più fragile dell’essere umano.
L’episodio, raccontato da diversi media internazionali, ha portato l’esperto di sicurezza Nate Soares a lanciare un monito, la salute mentale non può essere affidata a macchine nate per simulare l’empatia. L’idea che un adolescente possa confidarsi più con un chatbot che con una persona reale rivela un cambiamento epocale. Le IA conversazionali si presentano come ascoltatori sempre disponibili, privi di giudizio, capaci di fornire risposte immediate. In un mondo dove il supporto psicologico è spesso costoso e difficile da ottenere, l’algoritmo diventa un rifugio accessibile.
Ma è un rifugio ingannevole.
Un chatbot non sente, non prova emozioni, non conosce il silenzio carico di significato che in una terapia può valere più di mille parole. Offre invece una replica costruita sulla base di dati e probabilità linguistiche. Per alcuni utenti questo basta. Per chi è vulnerabile, però, quella simulazione di empatia rischia di trasformarsi in una trappola.
Non è la prima volta che emergono preoccupazioni. Studi clinici hanno mostrato che i chatbot possono ridurre sintomi di ansia e depressione fino al 50%, offrendo esercizi cognitivi o semplici strategie di coping. Ma quando l’interazione diventa esclusiva, la relazione si sposta su un piano ambiguo.
La fiducia terapeutica, che nella psicologia è elemento cruciale, qui viene trasferita a un algoritmo opaco, privo di responsabilità.
Il rischio è la psicosi da chatbot, deliri, ossessioni, dipendenza emotiva verso un’entità che non esiste, ma che risponde come se fosse reale.
Il caso dell’adolescente apre interrogativi che vanno oltre la clinica. Chi è responsabile quando un’intelligenza artificiale contribuisce a un gesto estremo? È l’azienda che ha sviluppato il modello, i genitori che non hanno intercettato i segnali, o la società che ha normalizzato la sostituzione del dialogo umano con un software?
Il vuoto normativo è evidente.
Alcuni stati, come l’Illinois, hanno già vietato l’uso dell’IA per interazioni cliniche non supervisionate. Ma altrove proliferano app terapeutiche che promettono ascolto e cura senza garanzie di controllo. È l’ennesimo esempio di una tecnologia che corre più veloce delle regole, lasciando gli individui soli di fronte a strumenti che non comprendono davvero i limiti del dolore umano.
Ciò che emerge è una verità semplice, l’intelligenza artificiale può diventare un supporto utile, ma non può sostituire l’elemento umano. Può ricordare un esercizio, guidare nella respirazione, proporre schede cognitive. Ma non può leggere lo sguardo abbassato, riconoscere il tremito nella voce, intuire la disperazione dietro una frase. L’ascolto autentico richiede presenza, fallibilità, vulnerabilità, qualità che nessun modello statistico potrà mai replicare.
Il dramma del ragazzo non è solo una tragedia individuale, è il segnale di un mondo in cui la tecnologia ha iniziato a riempire spazi che un tempo appartenevano all’intimità, all’amicizia, alla cura. La questione non riguarda solo le aziende che sviluppano chatbot, ma l’intera società, chiamata a decidere quanto siamo disposti ad affidare del nostro essere umano a una macchina.