L’idea che un assistente AI possa raccontare il mondo con la stessa affidabilità di un giornalista continua a mostrare le sue fragilità. Una ricerca coordinata dall’European Broadcasting Union con ventidue emittenti pubbliche di diciotto Paesi ha analizzato più di tremila risposte prodotte da ChatGPT, Copilot, Gemini e Perplexity. Il quadro è netto: quasi la metà dei testi conteneva errori significativi e oltre l’ottanta per cento presentava almeno un’imprecisione. Lo riporta Reuters, che ha pubblicato in anteprima i dati dello studio.
Le incongruenze non riguardano solo numeri o nomi, ma la sostanza stessa delle notizie. In molti casi gli assistenti hanno attribuito a figure pubbliche dichiarazioni mai pronunciate o modificato il significato di provvedimenti e rapporti ufficiali. Le verifiche di Gizmodo e del Guardian confermano che la maggior parte delle distorsioni nasce dall’assenza di fonti tracciabili o dalla citazione di documenti inesistenti.
Il Reuters Institute, in un’indagine parallela, osserva che il sette per cento degli utenti online nel mondo utilizza già un assistente AI per ottenere notizie. Tra i più giovani la percentuale sale rapidamente, segno che le macchine non sostituiscono i media ma ne stanno modificando la percezione. La European Broadcasting Union parla di “distorsione sistemica dell’informazione” e chiede alle aziende tecnologiche una maggiore trasparenza sulla provenienza dei dati e sull’affidabilità dei contenuti generati.
Secondo i ricercatori, il problema non è solo tecnico ma culturale: l’automatizzazione dell’informazione riduce il rapporto critico tra chi produce e chi riceve la notizia. Quando la mediazione umana scompare, anche l’errore perde la sua gravità e diventa parte del flusso. Per questo lo studio invita a mantenere la supervisione editoriale e a rendere obbligatoria la segnalazione dei testi creati o riscritti dall’AI.
L’intelligenza artificiale può accelerare la produzione, ma la velocità non basta. La qualità dell’informazione non si misura nel tempo di risposta, ma nella capacità di restituire contesto, precisione e responsabilità. Ed è lì che le macchine, almeno per ora, continuano a fallire.