L’intelligenza artificiale fatica a capire quando le persone credono al falso

Uno studio indipendente su 24 modelli di IA rivela che i sistemi non distinguono tra conoscenza certa e convinzione personale errata, sollevando rischi gravi per diritto, sanità e media.

L’intelligenza artificiale fatica a capire quando le persone credono al falso
Condividi:
2 min di lettura

Il 5 novembre 2025 un gruppo di ricercatori ha reso pubblico uno studio internazionale che mostra come diversi modelli di intelligenza artificiale, tra cui quelli usati nei chatbot più diffusi, non siano in grado di riconoscere che una persona può avere un’opinione basata su informazioni false. La valutazione ha coinvolto 24 versioni di modelli linguistici e oltre 13 000 quesiti, testando la differenza tra fatti, credenze e verità percepite.

Il risultato è allarmante: i sistemi hanno mostrato difficoltà nel cogliere la distinzione tra affermazioni certe e convinzioni personali, perseverando su risposte che ignorano la componente di soggettività delle opinioni. In pratica, non solo non verificano se un’idea è vera, ma non riconoscono che qualcuno possa credere a qualcosa di falso. Questo limite è particolarmente rilevante quando l’IA viene impiegata in ambiti critici come medicina, diritto o giornalismo, dove la capacità di distinguere tra verità accertata e percezione emotiva può fare la differenza.

Gli autori del rapporto avvertono che il fenomeno non è semplicemente un errore tecnico, ma riflette una lacuna epistemica: i modelli sono addestrati su grandi quantità di testo, ma non sviluppano una comprensione reale del “credo” umano o delle sue origini. Per questo motivo mancano indicatori adeguati di grado di convinzione, incertezza o bias interno all’utente. Alcuni casi riportati riguardano risposte che etichettavano come “fatto” quanto era invece solo convinzione, senza fornire contesto o precisazione.

La portata dell’impatto è ampia. In un contesto in cui sempre più utenti si affidano a chatbot per orientarsi nell’informazione e nelle decisioni, la mancanza di sensibilità ai meccanismi psicologici e sociali delle credenze rappresenta un rischio concreto. Se un sistema risponde come se tutte le affermazioni fossero equivalenti dal punto di vista della veridicità, si può generare un effetto di amplificazione della disinformazione o di legittimazione di credenze errate.

Sul piano pratico emerge la necessità di ripensare la progettazione dei modelli e le modalità di addestramento: servono moduli che integrino l’idea di “grado di certezza”, “fonte verificata”, “contesto di convinzione”. Inoltre, occorre che le aziende che sviluppano IA introducano meccanismi di uncertainty modelling e filtri che distinguano tra opinione personale e fatto accertato, e che questo venga esplicitato all’utente.

Alla fine, l’intelligenza artificiale non è solo questione di potenza o rapidità nel generare risposte. È questione di capire il credo umano dietro le parole, e di riconoscere che una convinzione può nascere non dal fatto ma dalla fiducia.

Tag: