Dalla digital literacy alla AI literacy: la nuova competenza civica del 2026

Secondo UNESCO e OECD, la capacità di comprendere ed utilizzare l’IA diventa una competenza chiave per cittadini e studenti. Non è più tecnologia: è cultura.

Dalla digital literacy alla AI literacy: la nuova competenza civica del 2026
Condividi:
4 min di lettura

Organismi internazionali come UNESCO e OECD stanno aggiornando i propri framework educativi includendo competenze legate all’intelligenza artificiale. Non si tratta più soltanto di saper usare strumenti digitali, ma di comprendere come funzionano i sistemi algoritmici e quali implicazioni producono nella società.

Tra il 2023 e il 2025 si è assistito alla pubblicazione di numerosi report internazionali dedicati al rapporto tra intelligenza artificiale ed educazione, accompagnati dall’integrazione progressiva di moduli specifici nei programmi scolastici di diversi Paesi.

Per anni il dibattito si è concentrato sulla digital literacy. Saper usare un computer, saper navigare online, saper distinguere una fonte affidabile da una manipolata. Nel 2026 questo non basta più.

Secondo il report UNESCO Guidance for Generative AI in Education and Research pubblicato nel 2023 e aggiornato nel 2024, l’intelligenza artificiale generativa richiede una nuova forma di alfabetizzazione. Non significa diventare programmatori, ma comprendere limiti, rischi, bias e funzionamento dei modelli linguistici per poter essere cittadini consapevoli, perché la trasformazione in corso non riguarda soltanto la tecnologia ma anche il modo in cui la società interpreta e utilizza i sistemi informativi.

L’OECD, nei suoi studi più recenti sull’impatto dell’AI sulle competenze future, pubblicati negli OECD AI & Education Working Papers tra il 2024 e il 2025, sottolinea che la capacità di interagire con sistemi intelligenti diventerà parte integrante delle competenze chiave del lavoro e della partecipazione civica. Non basta ricevere una risposta: diventa necessario comprenderne il funzionamento, il contesto e i possibili limiti.

Il passaggio è sottile ma radicale. La digital literacy riguardava principalmente l’accesso e l’utilizzo degli strumenti digitali, mentre l’AI literacy riguarda la capacità di interpretare i risultati prodotti dai sistemi generativi e di applicare un pensiero critico ai contenuti che questi sistemi restituiscono.

Un motore di ricerca restituisce collegamenti a fonti diverse. Un modello generativo produce invece sintesi linguisticamente coerenti. Tuttavia la coerenza non è sinonimo di verità. Lo evidenzia anche lo Stanford AI Index 2025, che mostra come i sistemi generativi continuino a presentare margini di errore, bias statistici e problemi di affidabilità fattuale. Senza competenze critiche adeguate, l’utente rischia di confondere plausibilità e accuratezza e di ottenere contenuti superficiali o poco approfonditi. Non a caso, soprattutto nei social, si diffonde sempre più spesso l’espressione “sembra fatto con ChatGPT”, utilizzata per indicare testi percepiti come generici o privi di reale elaborazione.

In questo scenario emerge una nuova forma di analfabetismo legata alla difficoltà di comprendere il funzionamento probabilistico degli algoritmi che producono questi contenuti.

Il World Economic Forum, nel Future of Jobs Report aggiornato al 2025, individua tra le competenze in crescita il pensiero critico, la capacità di problem solving complesso e la comprensione dei sistemi tecnologici. Più l’intelligenza artificiale diventa infrastruttura diffusa della vita quotidiana, più diventa centrale la consapevolezza del suo funzionamento.

La Generazione Z e la Generazione Alpha stanno crescendo in un ambiente nel quale l’intelligenza artificiale non è più percepita come un evento straordinario ma come un’interfaccia quotidiana. Questo modifica il rapporto con la conoscenza: se una sintesi può essere prodotta immediatamente, il valore non risiede più soltanto nell’accesso all’informazione ma nella qualità delle domande che si è in grado di formulare.

In questo senso l’AI literacy non rappresenta una disciplina aggiuntiva, ma una competenza trasversale che riguarda la capacità di comprendere quando utilizzare un sistema generativo, come interpretarne i risultati e come mantenere attivo il proprio pensiero critico senza delegarlo completamente agli strumenti tecnologici.

Le scuole e le università si trovano oggi di fronte a una sfida complessa. Vietare l’uso dell’intelligenza artificiale rappresenterebbe una risposta semplice ma difficilmente efficace, mentre integrarla senza educare realmente al suo funzionamento rischierebbe di produrre nuove forme di dipendenza tecnologica. Per questo diversi policy paper internazionali indicano come strada possibile quella di un’integrazione guidata dei sistemi di intelligenza artificiale nei percorsi educativi, accompagnata da una formazione che renda gli studenti consapevoli delle logiche e dei limiti degli strumenti che utilizzano.

Non si tratta semplicemente di insegnare a uno studente come utilizzare un chatbot in sicurezza, ma di preparare le future generazioni a pensare e a prendere decisioni in un mondo nel quale i sistemi generativi sono destinati a diventare parte stabile dell’ecosistema informativo.

Le implicazioni sono anche civiche. Un cittadino che non comprende il funzionamento degli algoritmi che influenzano informazione, credito, lavoro o accesso ai servizi pubblici rischia inevitabilmente di trovarsi in una posizione di minore autonomia rispetto ai sistemi che regolano la vita sociale.

In questo contesto l’AI literacy tende quindi a diventare parte di una nuova forma di educazione democratica, legata alla capacità dei cittadini di comprendere i sistemi tecnologici che incidono sulla circolazione delle informazioni e sui processi decisionali.

Non si tratta di allarmismo, ma di un adattamento storico. Così come nel Novecento l’alfabetizzazione di massa ha reso possibile una partecipazione più ampia alla vita politica e sociale, nel XXI secolo la comprensione dei sistemi intelligenti diventa progressivamente una condizione per esercitare una cittadinanza consapevole.

La vera frattura non sarà tra chi utilizza l’intelligenza artificiale e chi non la utilizza, ma tra chi riuscirà a comprenderne i meccanismi e a governarne l’uso e chi continuerà a ignorarli, finendo per subirli.

Forse il passaggio più urgente non è rendere l’intelligenza artificiale più umana, ma rendere gli esseri umani più consapevoli dell’intelligenza artificiale.

Tag: