Il 29 ottobre 2025 l’azienda OpenAI ha aggiornato i termini d’uso di ChatGPT rendendo esplicito che l’applicazione può aiutare a comprendere argomenti relativi a salute e diritto, ma non sostituire esperti qualificati. La decisione, annunciata online e replicata in più paesi, arriva nel contesto di un crescente utilizzo dell’intelligenza artificiale in consulenza clinica e legale digitale.
Negli ultimi anni ChatGPT è stato impiegato per riassumere articoli medici, preparare bozze di atti legali e rispondere a domande sull’uso di farmaci o procedure giudiziarie. Secondo studi accademici, il modello ha mostrato buone prestazioni nella formazione medica e nella gestione dell’informazione, ma la sua accuratezza diminuisce in ambiti dove sono in gioco responsabilità cliniche o legali. Uno studio ha rilevato che le limitazioni di conoscenza e la variabilità nella qualità dei dati costituiscono le principali debolezze.
La posizione dell’azienda non è contraddittoria: ChatGPT continua a offrire spiegazioni e chiarimenti, ma ribadisce che “la consulenza personalizzata che richiede licenza, come quella medica o legale, deve essere gestita da un professionista”. Rimane quindi un supporto informativo, non un sostituto. La dipendenza esclusiva dal modello in contesti delicati può esporre l’utente a errori, interpretazioni errate o decisioni critiche senza adeguata supervisione.
Le applicazioni sono molteplici: nella salute, ChatGPT può spiegare sintomi comuni, aiutare nella preparazione a esami o fornire informazioni generiche su malattie. Nel diritto, può orientare verso normative generali, supportare la stesura di documenti e fornire panoramiche su concetti legali. Tuttavia, la responsabilità finale resta in capo all’utente o al professionista abilitato, poiché il modello può produrre informazioni incomplete, non aggiornate o non adeguate al singolo caso.
Dal punto di vista tecnico emergono limiti concreti. I modelli attuali non gestiscono bene contenuti visivi complessi (come interpretazione di immagini mediche), non garantiscono sempre la rappresentatività dei dati (rischio di bias) e non dispongono di tracciabilità completa nelle decisioni. In ambito legale, a ciò si aggiunge la possibilità di generare precedenti inesistenti o citazioni errate, con conseguenze significative in contesti professionali.
Sul piano etico e normativo si sta configurando un quadro di regole emergenti. In paesi europei come Regno Unito e Stati Uniti sono già in corso linee guida che richiedono la verifica umana quando l’IA entra in decisioni fortemente impattanti. La protezione dei dati, la trasparenza degli algoritmi e la capacità di dare spiegazioni diventano così fattori centrali. L’integrazione di ChatGPT nei flussi professionali richiede quindi non solo tecnologia ma un sistema di governance, responsabilità chiara e competenza digitale diffusa.
Alla fine, ChatGPT non è una bacchetta magica né un sostituto del medico o dell’avvocato. È uno strumento potente che richiede consapevolezza, competenza e supervisione. Se vogliamo che l’intelligenza artificiale operi davvero a servizio delle persone, dobbiamo restare vigili su ciò che può e non può fare.