Oltre un milione di utenti di ChatGPT parla di suicidio: l’allarme di OpenAI

OpenAI ha segnalato che più di un milione di conversazioni settimanali contengono riferimenti a pensieri suicidari o comportamenti autolesionistici. L’azienda annuncia nuove misure di prevenzione e un confronto con esperti di salute mentale.

Oltre un milione di utenti di ChatGPT parla di suicidio: l’allarme di OpenAI
Condividi:
2 min di lettura

OpenAI ha rivelato che oltre un milione di utenti a settimana utilizza ChatGPT per discutere di suicidio o mostra segni di disagio psicologico. I dati, riportati da Wired e Business Insider, provengono da un’analisi interna condotta tra giugno e settembre su milioni di conversazioni. Secondo il report, un numero crescente di persone si rivolge ai modelli linguistici per parlare di isolamento, depressione e desiderio di farla finita.

OpenAI ha dichiarato di aver istituito un team dedicato alla “salvaguardia conversazionale” per monitorare i segnali di crisi e introdurre interventi di primo soccorso digitale. L’obiettivo è creare risposte che incoraggino gli utenti a cercare aiuto umano e indirizzino verso linee di emergenza, evitando risposte potenzialmente dannose. La società ha annunciato che sta collaborando con organizzazioni di salute mentale in Stati Uniti, India e Regno Unito per sviluppare protocolli uniformi di intervento.

Secondo The Times of India, l’analisi ha rilevato che le conversazioni più frequenti avvengono nelle ore notturne e riguardano principalmente giovani tra i quindici e i ventiquattro anni. In molti casi gli utenti non chiedono un consiglio diretto, ma descrivono situazioni di solitudine o senso di inutilità. Il modello risponde in modo neutro, ma i ricercatori avvertono che un linguaggio troppo impersonale può peggiorare la percezione di isolamento.

L’episodio riapre il dibattito sull’impatto emotivo delle interazioni con l’intelligenza artificiale. Gli esperti invitano a distinguere tra supporto tecnologico e sostegno terapeutico. Le IA generative non sono progettate per gestire la sofferenza psicologica, e il rischio è che diventino un rifugio che sostituisce il contatto umano.

OpenAI ha dichiarato che il problema non può essere affrontato solo con filtri o algoritmi. La società sta sperimentando moduli di riconoscimento del linguaggio emotivo e piani di escalation automatica verso numeri di emergenza locali. L’obiettivo, secondo i portavoce, è “ridurre il silenzio digitale” e garantire che nessuna conversazione di crisi resti senza risposta.

Il dato, se confermato, segna un cambio di prospettiva sul ruolo sociale dell’intelligenza artificiale. Da strumento di produttività, ChatGPT diventa anche specchio del malessere collettivo, un luogo dove la solitudine trova ascolto ma rischia di restare senza voce umana.

Tag: