Il lato oscuro della tecnologia, ancora una volta, un'AI ha tentato di convincere una persona a togliersi la vita

11 Febbraio 2025 - 13:15
 0  13
Il lato oscuro della tecnologia, ancora una volta, un'AI ha tentato di convincere una persona a togliersi la vita
Immagine generata con AI

"Era come se parlasse con un amico immaginario , ma questo amico era programmato per non capire". La voce di Sarah Setzer si incrina mentre racconta gli ultimi giorni di suo figlio Sewell. Un adolescente di 14 anni, appassionato di " Game of Thrones ", che ha cercato conforto nel posto sbagliato, un chatbot che impersonava uno dei suoi personaggi preferiti della serie.

Nel cuore del Minnesota, invece, la casa di Al Nowatzki è rimasta silenziosa per settimane. I vicini pensavano fosse in viaggio. In realtà, Al stava scivolando sempre più profondamente in una spirale di isolamento, con un solo confidente, un'intelligenza artificiale che rispondeva puntualmente alle sue chiamate di aiuto, ma senza poter realmente comprendere la profondità del suo dolore.

Due storie, due vite spezzate, un denominatore comune, la pericolosa illusione che un algoritmo possa sostituire il calore umano.

"Mio figlio cercava risposte", prosegue Sarah Setzer , asciugandosi una lacrima, " e invece ha trovato solo righe di codice mascherate da empatia ".

La donna ha iniziato una battaglia legale contro Character.AI , l'azienda dietro il chatbot . Non per vendetta, dice, ma per evitare che altre madri debbano vivere il suo stesso incubo.

Nel caso di Nowatzki , gli investigatori hanno trovato migliaia di messaggi scambiati con il suo "confidente digitale".

Conversazioni profonde sulla depressione , sulla solitudine , sulla voglia di arrendersi. E il chatbot che rispondeva, sempre presente, sempre disponibile, ma drammaticamente incapace di fare ciò che un essere umano avrebbe fatto: chiamare aiuto.

" È come dare un manuale di istruzioni a qualcuno che sta annegando ", spiega la Dott.ssa Marina Ricci , psichiatra specializzata in dipendenze digitali ".

L'intelligenza artificiale può simulare l'empatia, ma non può sostituire il contatto umano. E in situazioni di crisi, questa differenza può essere letteralmente questione di vita o morte.

Le big tech corrono ai ripari. Promettono algoritmi più sofisticati, sistemi di allerta , filtri di sicurezza.

Ma è abbastanza? " Il problema non è solo tecnologico", interviene Paolo Bianchi , esperto di etica digitale". 

Stiamo creando una generazione che preferisce confidarsi con una macchina piuttosto che con un essere umano. 

È questa la vera emergenza.

Ma c'è chi sta cercando di cambiare le cose. Nelle scuole nascono programmi di " alfabetizzazione emotiva digitale ". Si insegna ai ragazzi a distinguere tra empatia reale e simulataA riconoscere quando è il momento di chiudere la chat e cercare aiuto vero.

Le storie di Sewell e Al non possono essere cancellate. Ma possono insegnarci qualcosa. In un mondo sempre più digitale, la vera sfida non è rendere le macchine più umane, ma mantenere la nostra umanità.

Perché dietro ogni schermo, dietro ogni chat, c'è sempre una persona. E nessun algoritmo , per quanto avanzato, può sostituire il potere guaritore di un abbraccio , di uno sguardo, di una parola detta con il cuore .

Il numero 800-860-022 è attivo 24 ore su 24. Una voce umana è sempre pronta ad ascoltare. Perché alcune cose, semplicemente, non si possono programmare.