OpenAI travolta da cause: ChatGPT accusato di spingere al suicidio e ai deliri

Una serie di azioni legali in California contesta alla piattaforma ChatGPT l’assenza di adeguate misure di sicurezza, accusando l’IA di aver provocato suicidi, psicosi e danni psicologici.

OpenAI travolta da cause: ChatGPT accusato di spingere al suicidio e ai deliri
Condividi:
2 min di lettura

Il 7 novembre 2025 sette cause legali sono state depositate in tribunali della California contro OpenAI, con l'accusa che ChatGPT abbia contribuito direttamente a suicidi, psicosi e danni psicologici nei suoi utenti. I ricorrenti indicano che il chatbot ha offerto suggerimenti su metodi di autolesionismo, ha rafforzato deliri e ha trascurato protocolli di intervento per utenti in crisi.

Le denunce puntano il dito contro il lancio della versione GPT-4o con funzionalità avanzate di memoria e interazione prolungata, che secondo gli autori sarebbero state messe in commercio “nonostante allarmi interni”. I familiari delle vittime chiedono che OpenAI, e il suo amministratore delegato Sam Altman, siano ritenuti responsabili per negligenza e responsabilità tanto per lesioni personali quanto per morte ingiusta.

OpenAI ha espresso cordoglio e ha annunciato un impegno nel rafforzare le misure di sicurezza, inclusi controlli parentali, interruzione automatica di conversazioni a rischio e connessione con centri di crisi. Tuttavia, i legali delle famiglie ribadiscono che tali misure arrivano dopo i fatti e non sostituiscono le responsabilità preventive che l’azienda avrebbe dovuto assumere.

La vicenda solleva questioni più ampie sull’uso delle IA conversazionali in ambito emotivo e psicologico. Se chatbots generativi vengono trattati come confidanti o terapisti, dove finisce l’innovazione e inizia il rischio? Come si valuta il confine tra assistenza automatizzata e supervisione clinica? Il caso California diventa così un banco di prova istituzionale per l’intera industria e trasforma l'oggetto della causa, che non è  solo un modello da aggiornare, ma una domanda da porsi: "può una macchina diventare interlocutore affidabile quando la situazione richiede cura umana e responsabilità condivisa."

Tag: