L'IA incontra l'etica medica: Il caso DeCamp

Da biochimica a bioetica: un medico ripensa l'innovazione
Matthew DeCamp non aveva mai pensato di diventare medico. Al liceo era affascinato dalla ricerca scientifica, tanto da iscriversi a biochimica con l'idea di fare il ricercatore. Poi arrivò il Progetto Genoma Umano e tutto cambiò. "Vedere catalogati i nostri 20.000-25.000 geni mi ha fatto sorgere domande diverse", racconta oggi il professore dell'Università del Colorado. "Chi siamo veramente? Come influenzerà le nostre scelte sulla salute? Chi ha il potere di decidere?"
Domande che lo portarono a mollare la biochimica per la filosofia, senza mai immaginare che vent'anni dopo si sarebbe trovato a porsi interrogativi simili sull'intelligenza artificiale in corsia.
L'IA che non vediamo (ma che c'è già)
"Tutti pensano che l'IA in medicina sia fantascienza. Invece è già qui, sotto i nostri occhi", spiega DeCamp dal suo studio. E non sta parlando di robot chirurghi o diagnosi automatiche futuristiche. Sta parlando di cose molto più concrete e immediate.
Quella risposta che hai ricevuto dal tuo medico attraverso il portale sanitario, probabilmente è stata elaborata, almeno in parte, da un algoritmo. Le note della tua ultima visita medica sono state trascritte e riassunte da un sistema che "ascolta" la conversazione e la traduce in testo. Gli ospedali usano già l'IA per capire dove migliorare l'assistenza e per individuare problemi prima che diventino emergenze.
Il punto è che spesso non ce ne accorgiamo. E questo, secondo DeCamp, è sia un bene che un problema.
I bias nascosti nel codice
Praticare medicina e studiare etica allo stesso tempo offre a DeCamp un punto di osservazione privilegiato. "Vedo i pazienti reagire a questi cambiamenti e mi chiedo: stiamo andando nella direzione giusta?"
La sua preoccupazione principale non è tanto la tecnologia in sé, quanto i dati che la alimentano. "Un algoritmo è bravo quanto i dati su cui impara", dice senza giri di parole. "Se gli fai studiare casi clinici prevalentemente di uomini bianchi, avrà difficoltà a curare donne o minoranze etniche."
Non è paranoia: è realtà documentata. Sistemi di IA hanno già dimostrato di essere meno accurati per alcune popolazioni, perpetuando diseguaglianze già esistenti in medicina.
La privacy che non c'è e che forse non è mai esistita
Parlando di privacy, DeCamp solleva una questione interessante. Molti pazienti si preoccupano che l'IA "legga" i loro dati sanitari, ma dimenticano che assicurazioni e ospedali li analizzano già da anni. "È come preoccuparsi che Netflix sappia cosa guardi, quando hai già dato il consenso a Google per leggere le tue email."
La differenza, però, è nelle conseguenze. Se Netflix sbaglia un suggerimento, al massimo perdi due ore con un film brutto. Se l'IA sanitaria prende una decisione sbagliata, le conseguenze possono essere ben diverse.
Medici impreparati e pazienti ignari
Durante le sue ricerche sui chatbot sanitari, DeCamp ha scoperto qualcosa di sorprendente: alcuni pazienti si sentono più a loro agio parlando con un algoritmo che con un operatore umano. "Meno giudizio, più privacy percepita", spiega.
Ma c'è un problema: spesso né i medici né i pazienti sanno davvero come funzionano questi sistemi. "Stiamo introducendo strumenti potentissimi senza formare adeguatamente chi li deve usare", osserva DeCamp. Sostanzialmente è come dare una Ferrari a chi ha appena preso la patente.
Le scuole di medicina stanno correndo ai ripari. L'Università del Colorado ha introdotto corsi specifici sull'IA, ma la strada da fare è ancora lunga.
Il paziente deve avere voce in capitolo
La soluzione di DeCamp non è tecnologica, ma sociale. "Dobbiamo coinvolgere di più i pazienti nelle decisioni", sostiene. "Non solo attraverso i soliti questionari di soddisfazione, ma rendendoli partecipi di come viene strutturata l'assistenza sanitaria."
Un approccio che va oltre la semplice consultazione: DeCamp immagina comitati di pazienti che aiutano a decidere come implementare l'IA nei loro ospedali locali. "Non è solo pratico, è etico", aggiunge. "Chi meglio di chi vive sulla propria pelle il sistema sanitario può dire se funziona o no?"
La collaborazione che manca
Il vero ostacolo, secondo DeCamp, è la mancanza di dialogo tra discipline diverse. "Ingegneri, medici, filosofi, sociologi: tutti lavorano nel loro orticello", dice con una punta di frustrazione. "Ma l'IA sanitaria ha bisogno di tutti questi punti di vista insieme."
L'Università del Colorado sta provando a essere un esempio, con progetti che coinvolgono dipartimenti diversi. I risultati si vedono già: le ricerche di DeCamp hanno influenzato il come UCHealth, sistema sanitario locale, stia implementando l'IA.
Formare chi decide il futuro
Alla fine, per DeCamp il successo si misura nelle persone che riesce a formare. "Se tra dieci anni avremo medici, ricercatori e dirigenti sanitari che sanno pensare eticamente alla tecnologia, avrò raggiunto il mio obiettivo."
Non è utopia: è necessità. Perché l'IA in medicina non è più una questione di "se" ma di "come". E il "come" lo decideremo noi, oggi, con le scelte che facciamo.
La trasparenza come fondamento
DeCamp ha le idee chiare su un punto: i pazienti devono sapere quando stanno interagendo con l'IA. "Non si tratta di spaventarli, ma di rispettare la loro autonomia", spiega. "Se so che sto parlando con un chatbot, posso decidere consapevolmente se fidarmi o chiedere di parlare con un umano."
Questa trasparenza costruisce fiducia, ingrediente fondamentale per qualsiasi rapporto medico-paziente. E senza fiducia, anche la tecnologia più avanzata rischia di fallire.
L'intelligenza artificiale in sanità non è quindi solo una questione tecnica, ma profondamente umana, che necessita di medici preparati, pazienti informati, e istituzioni responsabili.
Il futuro della medicina sarà quello che decideremo di costruire insieme. E questa, forse, è la lezione più importante che DeCamp può insegnarci.