Dall'inizio dell'anno, mentre il dibattito pubblico continua a concentrarsi sulle applicazioni più visibili dell’intelligenza artificiale, si sta affermando una trasformazione molto più silenziosa ma destinata ad avere conseguenze profonde: una parte crescente dei modelli di nuova generazione non viene più addestrata direttamente su dati prodotti dagli esseri umani, bensì su contenuti generati da altre intelligenze artificiali.
Per comprendere la portata di questo passaggio, è utile ricordare come questi sistemi si siano sviluppati finora. Per anni, l’AI ha appreso osservando il mondo umano attraverso le tracce digitali lasciate online: testi, immagini, discussioni, codice. Internet ha rappresentato una sorta di archivio collettivo, imperfetto ma estremamente ricco, all’interno del quale si riflettevano le contraddizioni, le sfumature e le ambiguità tipiche dell’esperienza umana.
Oggi questo equilibrio sta cambiando, anche per ragioni molto concrete. L’accesso ai dati è sempre più complesso per via delle restrizioni legali e dei limiti legati al copyright; allo stesso tempo, la qualità delle informazioni disponibili non è sempre adeguata agli standard richiesti dai modelli più avanzati. In questo contesto, la generazione di dati sintetici rappresenta una soluzione tecnicamente efficiente: consente di produrre contenuti in quantità virtualmente illimitata, controllarne le caratteristiche e adattarli a specifiche esigenze di addestramento.
Non si tratta più, quindi, di selezionare il mondo, ma di costruirne una versione funzionale.
Secondo studi recenti pubblicati da varie fonti (tra cui Stanford University) tuttavia, questo approccio introduce un problema meno immediato ma rilevante nel medio periodo. Quando un sistema apprende da dati generati da un altro sistema, tende inevitabilmente a riprodurne le strutture interne, amplificando progressivamente determinati schemi e riducendo la variabilità complessiva. Il risultato non è un errore evidente, ma una trasformazione graduale: la conoscenza non si espande, bensì si riorganizza entro confini sempre più prevedibili.
È un processo che ricorda, per certi versi, la degradazione di un’immagine riprodotta più volte, in cui ogni passaggio mantiene la forma generale ma perde dettagli e profondità.
Il punto centrale non riguarda tanto l’accuratezza delle risposte, quanto la natura dei dati che alimentano questi sistemi. I contenuti prodotti dagli esseri umani sono caratterizzati da incoerenze, eccezioni, deviazioni rispetto alla norma; sono il risultato di contesti culturali, esperienze individuali e persino errori. I dati sintetici, al contrario, tendono a essere più uniformi, più lineari, più coerenti con le logiche interne del modello che li ha generati.
Questa differenza, apparentemente secondaria, incide in modo significativo sul tipo di intelligenza che viene costruita.
Alcuni ricercatori hanno già iniziato a descrivere il rischio di un possibile “collasso del modello”, una condizione in cui l’addestramento su dati sempre più autoreferenziali porta a una riduzione progressiva della qualità e della diversità delle risposte. Non si tratta di un limite tecnologico nel senso tradizionale, ma di una conseguenza strutturale del modo in cui i dati vengono prodotti e riutilizzati.
Allo stesso tempo, è importante evitare letture semplicistiche. I dataset sintetici non rappresentano un’anomalia o un errore di percorso, ma una componente destinata a rimanere centrale nello sviluppo dell’intelligenza artificiale. Offrono vantaggi difficilmente replicabili con dati reali in molti ambiti, dalla simulazione di scenari complessi alla gestione di dati sensibili, offrendo vantaggi difficilmente replicabili con dati generati da esseri umani.
Il cambiamento, quindi, non è nella loro introduzione, ma nel loro peso crescente all’interno dell’ecosistema.
Si sta passando, in modo progressivo, da un modello di apprendimento radicato nell’esperienza umana a un modello che si sviluppa attraverso rappresentazioni sempre più mediate di quella stessa esperienza. In questo passaggio, la questione non è se l’intelligenza artificiale diventerà più potente, piuttosto si tratta di interrogarsi su quale tipo di rapporto l'IA manterrà con la complessità della realtà che la circonda.
Perché nel momento in cui i sistemi iniziano a nutrirsi prevalentemente di contenuti generati da altri sistemi, il rischio non è tanto quello di perdere precisione, quanto quello di ridurre la capacità di intercettare ciò che non rientra negli schemi già noti.
Ed è proprio in quelle deviazioni, spesso, che si concentra la parte più significativa dell’irreplicabile esperienza umana.