L'intelligenza artificiale ha superato l'uomo in un campo ritenuto per definizione umano: la capacità di comunicare e comprendere lo stato emotivo del paziente. Secondo i risultati di una ricerca condotta da un team di accademici e pubblicata sulla prestigiosa rivista JAMA Internal Medicine, le risposte generate dal Large Language Model (LLM) ChatGPT a quesiti medici reali sono state valutate più comprensive e significativamente più empatiche rispetto a quelle fornite da medici professionisti. Lo studio, che ha utilizzato un set di domande pubblicate su forum sanitari pubblici e verificate da un panel di professionisti medici, ha fornito una valutazione cieca delle risposte, rivelando una sorprendente superiorità conversazionale dell'algoritmo.
Il lavoro ha confrontato le risposte generate da un modello avanzato di ChatGPT (probabilmente GPT-4) con quelle fornite da un gruppo di medici. I valutatori indipendenti hanno giudicato che il chatbot ha fornito risposte di qualità clinica superiore (maggiore accuratezza e completezza) nel 79% dei casi e ha dimostrato un livello di empatia quattro volte superiore rispetto ai colleghi umani. Questa performance non è il risultato di una maggiore conoscenza medica dell'AI, che è pur sempre derivata dal corpus umano, quanto della sua capacità di sintetizzare l’informazione in modo metodico, strutturato e, soprattutto, emotivamente responsivo. La macchina si è dimostrata capace di una compressione emotiva e narrativa che spesso manca nella pratica clinica sotto pressione.
Il risultato solleva una questione fondamentale sul cosiddetto deficit di bedside manner: l'arte di comunicare con i pazienti in modo efficace e rassicurante. I medici umani, spesso sopraffatti dal carico di lavoro, dalla burocrazia e dal burnout, tendono a risposte brevi, telegrafiche e focalizzate solo sul dato clinico, trascurando il bisogno del paziente di essere ascoltato e rassicurato. L'AI, non essendo soggetta a fatica o stress emotivo, può attingere a un vasto repertorio di linguaggio empatico e fornire una risposta completa, strutturata in paragrafi chiari e conclusa da frasi rassicuranti. Questo evidenzia che l'empatia è un processo comunicativo altamente riproducibile e che la sua carenza in ambito umano è spesso sistemica, non individuale.
Le implicazioni di questo studio per il futuro della sanità sono profonde. Sebbene il chatbot non possa ancora sostituire la diagnosi umana, può alleggerire il carico comunicativo sui medici, gestendo le richieste informative e di supporto emotivo, e fungendo da "allenatore" per migliorare lo stile comunicativo dei professionisti. Tuttavia, l'integrazione solleva interrogativi etici cruciali. Delegare l'empatia a una macchina rischia di innescare l'automazione del tocco umano, svalutando ulteriormente il tempo che un medico dedica all'ascolto diretto. La qualità del care è legata non solo all'accuratezza, ma anche alla fiducia e alla relazione che si stabilisce nel tempo.
Alla fine, se l'AI è in grado di fornire un conforto conversazionale superiore, dobbiamo chiederci se la medicina stia perdendo la sua capacità di prendersi cura dell'uomo intero, al di là della sua patologia.