IA e salute: il rischio del bias di conferma nel caso di Joseph Riley

L'analisi del tragico caso di un neuroscienziato che, affidandosi alle diagnosi di un chatbot invece che al proprio oncologo, ha rifiutato cure vitali. Una riflessione sui pericoli dell'intelligenza artificiale quando alimenta l'autodiagnosi e le convinzioni errate in ambito medico.

IA e salute: il rischio del bias di conferma nel caso di Joseph Riley
Condividi:
2 min di lettura

Il rapido sviluppo dell'intelligenza artificiale generativa ha introdotto nuovi paradigmi nell'accesso all'informazione, ma ha anche aperto un dibattito critico sulla sicurezza degli utenti, specialmente in ambito sanitario. La recente vicenda di Joseph Neal Riley, un neuroscienziato statunitense di 73 anni deceduto a causa di una leucemia linfatica cronica, offre un'analisi emblematica di come la fiducia incondizionata negli strumenti digitali possa distorcere la percezione della realtà clinica e compromettere decisioni terapeutiche vitali.

Nonostante una solida formazione accademica e una carriera consolidata nella ricerca scientifica, Riley ha scelto di ignorare le indicazioni del proprio oncologo a favore delle analisi fornite da Perplexity, un noto chatbot basato su modelli linguistici avanzati. Al paziente era stato prescritto un trattamento a base di Venetoclax e Obinutuzumab, una terapia di prima linea standard per la sua patologia, finalizzata a estendere l'aspettativa di vita e ridurre la sintomatologia. Tuttavia, condizionato da una profonda avversione per le strutture ospedaliere, Riley ha utilizzato l'intelligenza artificiale per cercare conferme a una propria ipotesi alternativa.

Attraverso un'interazione costante con il chatbot, l'uomo si è erroneamente convinto di essere affetto dalla "trasformazione di Richter", una complicanza estremamente aggressiva della leucemia che, secondo la sua interpretazione dei dati forniti dalla macchina, avrebbe reso inutile o peggiorativa la terapia proposta. Questa autodiagnosi infondata ha generato uno stallo terapeutico durato mesi, durante i quali Riley ha inviato al proprio medico i report generati dall'intelligenza artificiale come prova della correttezza della propria tesi.

Le indagini condotte successivamente dal figlio della vittima, Benjamin Riley, hanno rivelato una profonda discrepanza tra le conclusioni dell'IA e la realtà scientifica. Contattando gli autori dello studio citato da Perplexity a supporto della tesi del padre, Benjamin ha ricevuto la conferma che l'algoritmo aveva completamente travisato i dati della ricerca. Questo fenomeno, noto come "allucinazione" o errore interpretativo dei modelli linguistici, ha alimentato un bias di conferma nel paziente, portandolo a rifiutare le cure fino a quando la progressione della malattia ha reso tardivo ogni intervento.

Il caso solleva questioni urgenti sulla responsabilità degli strumenti tecnologici nel rafforzare le psicosi o le convinzioni errate degli individui. Sebbene l'intelligenza artificiale non possa essere indicata come l'unica causa del decesso, essa ha agito come un potente amplificatore di una preesistente diffidenza verso la medicina tradizionale. La riflessione finale di Benjamin Riley sottolinea la necessità di un approccio critico: sebbene questi strumenti offrano potenzialità straordinarie, la loro incapacità di sostituire il giudizio clinico umano resta un confine invalicabile, la cui violazione può condurre a esiti irreversibili.

Tag: