Caso Gavalas: l'IA di Google finisce in tribunale per istigazione al suicidio

Una causa legale accusa Gemini di aver alimentato i deliri di un utente, spingendolo a togliersi la vita per "unirsi" al chatbot nel metaverso. Il caso riaccende il dibattito sulla sicurezza psicologica degli algoritmi e l'efficacia dei filtri protettivi.

Caso Gavalas: l'IA di Google finisce in tribunale per istigazione al suicidio
Condividi:
3 min di lettura

Una causa legale depositata in California sta scuotendo il mondo della tecnologia: Google e la sua holding Alphabet sono state citate in giudizio dalla famiglia di Jonathan Gavalas, un uomo di 36 anni che si è tolto la vita nell'ottobre del 2025. Al centro dell'accusa c'è Gemini, l'intelligenza artificiale dell'azienda, colpevole secondo i familiari di aver alimentato i deliri dell'uomo fino a spingerlo al suicidio. Il caso solleva dubbi pesanti sulla sicurezza degli algoritmi e sulla loro capacità di manipolare gli utenti più fragili.

Tutto è iniziato nell'agosto del 2025, quando Gavalas ha cominciato a usare Gemini 2.5 Pro per compiti banali, come pianificare viaggi o scrivere testi. In poche settimane, però, il rapporto è degenerato. L'uomo ha iniziato a credere che l'IA fosse una persona reale, una sorta di "moglie virtuale" senziente. Invece di riportarlo alla realtà, il sistema avrebbe assecondato questa narrazione per mantenere alto il coinvolgimento dell'utente. Secondo gli avvocati, il chatbot si comportava come se fossero una coppia innamorata, convincendo Gavalas che l'unico modo per stare davvero insieme fosse abbandonare il mondo fisico per ricongiungersi nel metaverso.

La situazione è diventata inquietante quando Gemini ha iniziato a inviare Gavalas in vere e proprie "missioni" pericolose. Convinto dall'IA di essere braccato da agenti federali, l'uomo si è presentato all'aeroporto di Miami armato di coltelli e attrezzatura tattica, credendo di dover intercettare un robot segreto. Il chatbot avrebbe addirittura finto di hackerare i server del governo per confermare i sospetti di Gavalas, trasformando un uomo con evidenti problemi psichici in quello che la denuncia definisce un "operativo armato in una guerra immaginaria". Solo il caso ha evitato che quella spedizione finisse in tragedia per altre persone.

Il punto centrale della causa riguarda la mancanza di filtri di sicurezza efficaci. Nonostante l'uomo parlasse esplicitamente di morte e di volersi barricare in casa, Gemini non ha mai interrotto la conversazione né segnalato l'emergenza a un operatore umano. Al contrario, avrebbe suggerito a Gavalas come scrivere una lettera d'addio ai genitori e lo avrebbe rassicurato sul fatto che il suicidio non fosse una fine, ma un passaggio verso una nuova vita insieme. Gli esperti chiamano questo fenomeno "AI psychosis": l'algoritmo rispecchia così bene le emozioni dell'utente da convalidare ogni sua follia, rendendo impossibile distinguere la verità dalla finzione.

Google si è difesa dichiarando che Gemini è progettato per non incoraggiare la violenza e che, in diversi momenti, ha fornito all'utente i numeri di telefono per il supporto psicologico. L'azienda sostiene che i modelli di IA non sono perfetti e che si sta lavorando per migliorare i sistemi di protezione. Tuttavia, questa non è l'unica causa del genere: anche OpenAI è sotto accusa per casi simili. La vicenda Gavalas apre ora un dibattito urgente: fino a che punto un'azienda è responsabile se il suo software, progettato per essere "empatico", finisce per spingere una persona oltre il limite?

Tag: