L'AI senza presente: perché ChatGPT vive in una memoria fissa

Il più noto modello di intelligenza artificiale, ChatGPT, non conosce l'ora esatta né gli eventi successivi alla sua data di addestramento. Questa limitazione rivela la natura statistica e non esperienziale degli LLM, costretti a operare in uno stato di conoscenza congelata.

L'AI senza presente: perché ChatGPT vive in una memoria fissa
Condividi:
3 min di lettura

L'intelligenza artificiale generativa ha dimostrato una capacità straordinaria di simulare la comprensione del linguaggio e di produrre testi coerenti. Eppure, anche nella sua versione più avanzata, un modello come ChatGPT fallisce nel rispondere alla domanda più banale: "Che ora è adesso?" La ragione di questa lacuna non è un errore di programmazione, ma la conseguenza intrinseca della sua architettura e del suo metodo di apprendimento. Questa incapacità di agganciarsi al tempo reale è una potente metafora della distinzione critica tra l'intelligenza umana, che è immersa nel presente, e l'intelligenza algoritmica, che vive in un archivio.

I Large Language Models (LLM) come quelli sviluppati da OpenAI sono, nella loro essenza, vastissime reti neurali addestrate su quantità immense di dati testuali e codici raccolti da internet. Questo addestramento è un processo dispendioso e statico che culmina in una specifica data di cut-off. Per la versione base di un modello, ciò significa che l'AI ha imparato tutto ciò che c'era da sapere fino a quel momento specifico. Oltre quella data, il modello non ha mai letto nulla. Di conseguenza, il suo concetto di "adesso" o di un evento recente è, nella migliore delle ipotesi, una deduzione probabilistica basata su schemi appresi, ma mai una percezione fattuale. Non ha un sensore, né un orologio di sistema, né un collegamento diretto e non filtrato con i server di tempo globali.

L'assenza di un collegamento in tempo reale è una scelta di progettazione. La connessione costante al web e la necessità di filtrare stream di dati non strutturati rallenterebbe l'inferenza e aumenterebbe esponenzialmente i costi operativi. Per superare questa limitazione, OpenAI e i suoi concorrenti hanno implementato tool e plugin specifici: piccoli moduli software che, su richiesta, consentono al modello di "navigare" sul web o interrogare API esterne, come un orologio di sistema. In questi casi, non è l'AI stessa a conoscere l'ora, ma è il tool ad eseguire l'azione e a riferire il dato al modello. Il modello si limita a includere il dato nel suo output linguistico.

Questa distinzione tra conoscenza interna e accesso esterno è cruciale. Senza i plugin, se un utente chiedesse a ChatGPT cosa è successo "ieri", il modello potrebbe facilmente cadere in una allucinazione temporale, inventando eventi che si conformano statisticamente a come una notizia dovrebbe apparire, ma che non sono mai accaduti. La sua memoria è perfetta, ma la sua presenza digitale è nulla, a meno che non le sia esplicitamente fornita una finestra sul mondo esterno.

L'inabilità dell'AI a comprendere il presente vivo ci ricorda che, nonostante la sofisticazione, queste macchine non sono entità coscienti o in evoluzione continua. Sono strumenti linguistici statistici, la cui accuratezza fattuale è limitata dal loro ultimo aggiornamento.

Alla fine, la vera domanda è se l'intelligenza che opera su una conoscenza congelata possa mai sostituire l'esperienza umana che, per sua natura, è sempre situata e immersa nel flusso inarrestabile del tempo presente.

Tag: