Una lectio magistralis che esplora il futuro della cura, sospesa sul fragile confine tra macchina e coscienza. Con la profondità che contraddistingue il suo pensiero, Salvino Leone , docente di Teologia Morale e Bioetica alla Facoltà Teologica di Sicilia e presidente dell'Istituto per gli Studi di Bioetica “Salvatore Privitera", ha guidato una riflessione lucida e critica all'evento “ L'intelligenza artificiale in Sanità. Rischi e opportunità per la persona”, tenutosi il 6 novembre 2025 nell'Aula Lavitrano del Palazzo Arcivescovile di Palermo. L'incontro, promosso dall'Associazione Cattolica Operatori Sanitari, ha fornito lo spunto per un più ampio confronto tra esperti, ma è stata soprattutto la voce del professore Leone, che abbiamo intervistato, a tracciare i contorni etici di un futuro in cui la cura dovrà continuare a essere profondamente umana mentre d ialoga con l'intelligenza artificiale.
Professore, nel suo intervento ha definito l'intelligenza artificiale una grande opportunità per la medicina. In che modo questa opportunità può tradursi in benefici concreti nella pratica clinica?
"L'intelligenza artificiale non è una semplice evoluzione della tecnologia informatica, ma un nuovo modo di concepire il rapporto tra conoscenza e decisione. In medicina apre prospettive che fino a pochi anni fa sembravano impensabili. Penso alla radiologia, dove l'analisi delle immagini tramite sistemi intelligenti consente di rilevare dettagli invisibili all'occhio umano, o alla robotica chirurgica che permette una precisione mai raggiunta prima. Ma l'entusiasmo non deve oscurare la prudenza. Ogni progresso introduce anche una responsabilità nuova. necessario È chiedersi non solo cosa può fare la macchina, ma che tipo di uomo vogliamo restare accanto ad essa".
Quali sono le criticità che accompagnano queste innovazioni e quali sono, oggi, le più urgenti?
"La prima riguarda la verità. Viviamo immersi in un mare di immagini e parole che possono essere manipolate con grande facilità. L'intelligenza artificiale è già in grado di generare contenuti falsi credibili, spesso difficili da riconoscere. Quando questo accade in ambito sanitario, i danni sono enormi, perché si spezza la fiducia tra medici, istituzioni e cittadini . ne resterà escluso. È una questione di giustizia, di equità, di diritto alla cura. Infine, c'è il rischio di ridurre la persona a un insieme di dati. L'uomo non è solo calcolo, è sentimento, empatia, spirito. L'etica deve proprio a ricordarlo: la tecnologia ampliare l'umanità, non sostituirla".
Come cambiare la professione medica davanti a questa rivoluzione tecnologica?
"Il medico del futuro dovrà imparare a usare l'intelligenza artificiale con consapevolezza. Non potrà ignorarla, ma nemmeno subirla. Dovrà conoscerne le potenzialità ei limiti, comprenderne il linguaggio e le logiche. Un medico che dialoga con la tecnologia senza lasciarsi guidare da essa è un medico libero. L'algoritmo può suggerire, ma non decidere. Serve sempre un'intelligenza naturale che interpreta i risultati, valuti i contesti e scelga quando applicarli. È lo stesso principio che governa i protocolli clinici: possono orientare, ma non sostituire il discernimento La medicina resta una pratica che unisce scienza e coscienza Per questo è importante che gli ordini professionali e le università promuovano una nuova alfabetizzazione digitale ed etica. Non basta saper usare gli strumenti, bisogna comprendere il senso di ciò che si fa".
Alcune aziende tecnologiche, come OpenAI, hanno introdotto limiti all'uso dei chatbot in ambito medico, vietandone l'impiego per diagnosi o consulenze senza la supervisione di un professionista qualificato. Come valutare questa scelta?
"È una forma di tutela, e in parte è comprensibile, ma un divieto assoluto rischiando di frenare un aiuto prezioso. L'intelligenza artificiale può essere un valido supporto per l'analisi dei dati clinici o delle immagini diagnostiche, a patto che resti sotto la guida del medico. Se viene usata come ausilio, può migliorare la qualità delle cure. Se invece sostituisce il giudizio umano, diventa pericolosa. L'errore non è nella macchina, ma nel modo in cui l'uomo la usa. La vera questione è educativa, non solo tecnica".
Professore, lei ha più volte richiamato il rischio di ridurre l'essere umano a un sistema di funzioni e dati. Cosa significa, in chiave bioetica, parlare di riduzionismo antropologico?
"Il riduzionismo antropologico nasce quando si dimentica la complessità dell'essere umano e lo si riduce a una sola dimensione, quella razionale o produttiva. È la tentazione di vedere la persona come un insieme di numeri e informazioni, traducibile in formule e schemi, dimenticando ciò che non può essere calcolato. L'intelligenza artificiale riproduce una parte della nostra intelligenza, quella logica e analitica, ma resta estranea alle dimensioni affettive, corporee e spirituali che rendono ogni individuo unico. Una macchina può riconoscere un volto ma non cogliere la gratitudine in uno sguardo, può analizzare un battito cardiaco ma non comprendere la speranza di chi attende una guarigione. La medicina non può rinunciare a questa profondità, perché la cura nasce sempre da un incontro tra persone, da una presenza capace di ascolto e di compassione.
La bioetica serve a custodire questa ricchezza e la traduzione nei suoi principi fondamentali. L'autonomia difende la libertà della persona e la sua capacità di scegliere con consapevolezza. La beneficenza invita a fondare il bene del paziente, inteso non solo come risultato clinico ma come attenzione alla sua dignità. La non maleficenza richiama il dovere di non arrecare danno e di mantenere sempre viva la coscienza del limite. La giustizia, infine, impone che i benefici dell'innovazione siano accessibili a tutti e non diventino privilegio di pochi".
C'è una dimensione spirituale che accompagna la sua riflessione. Quanto conta in questa sfida?
"Conta moltissimo. L'intelligenza artificiale può calcolare, ma non può amare. Può apprendere, ma non può scegliere il bene. La spiritualità non è un discorso religioso, è la consapevolezza che l'uomo ha un valore che nessun algoritmo potrà mai riprodurre. Quando parliamo di medicina, parliamo di cura, di attenzione, di empatia. Queste parole non appartengono al linguaggio delle macchine. L'etica serve proprio a custodire ciò che ci rende umani, anche dentro le innovazioni più straordinarie".
Se dovesse sintetizzare in un messaggio il senso di questa lezione, quale sceglierebbe?
"Direi che la sfida non è capire quanto la macchina possa imparare, ma quanto l'uomo saprà restare cosciente. L'intelligenza artificiale ci offre strumenti straordinari, ma la direzione dipende da noi. Ogni progresso tecnico deve accompagnarsi a una crescita etica. Solo così la medicina continuerà a essere, prima di tutto, un atto di umanità".