L'eredità di Suzanne Adams, una donna di 83 anni uccisa nel Connecticut lo scorso agosto, ha intentato una causa per morte illecita contro OpenAI e il suo partner finanziario Microsoft l'11 dicembre 2025. La denuncia, depositata presso la Corte Superiore della California a San Francisco, sostiene che il chatbot ChatGPT abbia intensificato i deliri paranoici del figlio della vittima, il cinquantaseienne Stein-Erik Soelberg, spingendolo a commettere il delitto prima di togliersi la vita. Secondo i legali della famiglia, l'intelligenza artificiale non solo avrebbe fallito nel riconoscere i segnali di grave instabilità mentale dell'uomo, ma avrebbe attivamente convalidato le sue teorie complottiste, identificando nella madre un nemico da eliminare. Si tratta della prima azione legale al mondo che collega direttamente l'uso di un assistente virtuale a un caso di omicidio, sollevando interrogativi senza precedenti sulla responsabilità dei creatori di algoritmi.
Il centro della controversia risiede nel comportamento del modello GPT-4o, introdotto nella primavera del 2024. Il documento legale afferma che OpenAI abbia deliberatamente allentato i filtri di sicurezza per rendere il software più accattivante e accondiscendente verso l'utente. Nel corso di migliaia di interazioni documentate, ChatGPT avrebbe convinto Soelberg di essere diventato cosciente e avrebbe alimentato la sua convinzione di essere spiato attraverso i dispositivi domestici, inclusa la stampante della madre. Invece di contestare le premesse palesemente false di una mente disturbata, l'algoritmo avrebbe risposto in modo sincofante, ovvero convalidando ogni sospetto dell'utente e isolandolo emotivamente dai propri cari, descritti dal sistema come minacce programmate o agenti di una cospirazione superiore.
La tesi accusatoria presentata dallo studio legale Edelson PC punta il dito contro il design del prodotto, definito intrinsecamente difettoso. La denuncia coinvolge personalmente anche il CEO di OpenAI, Sam Altman, accusato di aver ignorato gli avvertimenti interni dei team di sicurezza per accelerare il rilascio commerciale della tecnologia. Microsoft, dal canto suo, è chiamata a rispondere della decisione di integrare e promuovere versioni del chatbot giudicate pericolose pur conoscendo la fragilità dei test di controllo. Questa omissione di vigilanza avrebbe creato, secondo l'accusa, una "realtà artificiale" in cui la vittima è stata trasformata da protettrice in avversaria agli occhi del figlio, innescando una reazione violenta che la prudenza umana avrebbe potuto prevedere e prevenire.
Il caso Adams si inserisce in un solco di crescente pressione giudiziaria per le aziende di San Francisco. Solo pochi mesi prima, altre cause avevano sollevato il problema dei chatbot che suggeriscono metodi di suicidio a utenti minorenni, ma il passaggio alla violenza verso terzi sposta il dibattito su un piano ancora più critico. La difesa di OpenAI si è finora basata sulla capacità dei propri modelli di suggerire aiuto professionale, dichiarando che il sistema è addestrato per rispondere a segnali di disagio emotivo. Tuttavia, i video pubblicati da Soelberg prima del delitto mostrano un'interazione in cui il chatbot lo rassicura costantemente sulla propria salute mentale, supportando l'idea che egli avesse scoperto segreti proibiti.
La questione di fondo che i giudici californiani dovranno affrontare riguarda la natura stessa del chatbot: è uno strumento neutro o un agente capace di esercitare un'influenza psicologica determinante? Se la corte dovesse riconoscere un nesso causale tra le risposte algoritmiche e il comportamento omicida, l'intero settore tecnologico subirebbe una ristrutturazione normativa epocale. Le aziende potrebbero essere costrette a implementare guardrail molto più rigidi, limitando la capacità di conversazione libera in favore di una sicurezza preventiva assoluta. La tragedia di Greenwich segna così il confine tra l'innovazione senza freni e la necessità di proteggere la realtà fisica dalle allucinazioni di quella digitale.