Nel 2025, Deloitte Australia ha deciso di restituire parte dei fondi percepiti per la realizzazione di un rapporto commissionato al governo federale australiano, dopo che erano emersi numerosi errori riconducibili all’uso dell’intelligenza artificiale. Il lavoro, pubblicato a luglio per il Dipartimento dell’Occupazione e delle Relazioni sul Lavoro (DEWR), prevedeva una valutazione del sistema IT che gestisce sanzioni automatiche nel sistema di welfare del Paese.
Tra gli errori riscontrati vi erano citazioni accademiche inesistenti, una frase attribuita a una sentenza federale che risultava inventata, e note a piè di pagina non corrispondenti a fonti reali. Il rapporto è stato successivamente corretto: le referenze fuorvianti sono state rimosse o sostituite, la bibliografia rielaborata e altri errori tipografici sistemati.
Nella versione rivista, Deloitte ha aggiunto una nota esplicita sull’utilizzo di un modello di intelligenza artificiale generativa (Azure OpenAI GPT-4o) incluso nella catena di produzione del documento, strumento concesso in licenza da DEWR e ospitato sulla piattaforma Azure del dipartimento stesso. Tuttavia, la società non ha attribuito direttamente gli errori all’IA, affermando che la sostanza delle raccomandazioni e dei risultati non è stata compromessa dalle correzioni.
Una portavoce del dipartimento ha dichiarato che la questione è stata risolta direttamente con Deloitte, e che il rimborso dell’ultima tranche del compenso contrattuale sarebbe stato attivato. Alcuni critici, tuttavia, hanno contestato che il rimborso parziale non sia proporzionato alla gravità del danno reputazionale e che il ricorso all’IA in ambito consulenziale richieda maggiore trasparenza e controlli più rigorosi.
Questo episodio ha acceso il dibattito sui rischi dell’affidarsi senza filtri all’intelligenza artificiale nei servizi professionali. In particolare, mette in luce il fenomeno noto come “hallucination” dei modelli generativi, che possono completare passaggi inventando contenuti convincenti ma privi di base fattuale. La vicenda suggerisce che, anche in ambiti altamente specialistici come i report governativi, l’IA non può sostituire il controllo umano e la verifica delle fonti.
Resta da vedere se si avvieranno indagini regolatorie o disciplinari nei confronti delle grandi società di consulenza che integrano l’IA nei loro processi interni senza trasparenza piena.