L'intelligenza artificiale che impara da sola: addio al controllo umano?

I ricercatori di Berkeley hanno creato un sistema che ribalta tutto: l'AI diventa il proprio insegnante
Immaginate un'intelligenza artificiale che non ha più bisogno di voi per imparare. Niente più pollici in su o giù, niente più correzioni umane. Semplicemente, l'AI guarda dentro se stessa e decide autonomamente cosa è giusto e cosa è sbagliato. Fantascienza? Non più.
Un gruppo di ricercatori dell'Università di California Berkeley ha pubblicato all'inizio del 2025 uno studio che sta facendo tremare i pilastri dell'addestramento AI. La loro creazione si chiama Reinforcement Learning from Internal Feedback (RLIF) e il sistema che ne deriva, Intuitor, è una di quelle scoperte che ti fanno dire: "Ecco, ci siamo quasi arrivati".
Da ChatGPT ai "professori digitali" autodidatti
Per capire quanto sia dirompente questa novità, facciamo un passo indietro. Fino a ieri, addestrare un'intelligenza artificiale era un po' come crescere un bambino molto, molto esigente.
Con ChatGPT e compagnia, gli sviluppatori dovevano letteralmente stare lì a dire "bravo" o "no, riprova" ogni volta che il modello dava una risposta. Il famoso Reinforcement Learning with Human Feedback (RLHF): migliaia di persone che passavano le giornate a valutare risposte AI come fossero compiti in classe.
Poi è arrivato il RLVR (Reinforcement Learning with Verifiable Rewards), più sofisticato ma limitato. Funziona benissimo per matematica e scienze - dove 2+2 fa sempre 4 - ma prova a usarlo per valutare una poesia o un'analisi filosofica. Impossibile.
La "confidenza" dell'AI: quando la macchina si fida di se stessa
Ed eccoci alla vera rivoluzione del 2025. I ricercatori di Berkeley hanno avuto un'intuizione quasi filosofica: e se l'intelligenza artificiale imparasse semplicemente fidandosi del proprio istinto?
Il meccanismo è disarmante nella sua semplicità. Quando l'AI affronta un problema, non lo risolve una volta sola. Lo fa più volte. E se nella maggior parte dei casi arriva alla stessa conclusione con alta confidenza, evidentemente quella risposta "la sente giusta". È come quando siete sicuri di ricordare il nome di quell'attore ma non riuscite a metterci il dito sopra: la certezza interna c'è, anche se non sapete spiegarla.
Questo approccio ribalta completamente la logica tradizionale. Non serve più cercare la risposta "corretta" dall'esterno: basta che l'AI sia convinta del proprio ragionamento. I ricercatori chiamano questo segnale intrinseco "self-certainty" - auto-certezza. Un po' come dire a uno studente: "Non importa se sbagli, l'importante è che tu sia sicuro del tuo metodo".
Intuitor: il nome perfetto per una scoperta imperfetta
Il sistema si chiama "Intuitor" e, onestamente, non potevano scegliere nome migliore. Perché in fondo è esattamente questo: un'AI che va a intuito, che si fida delle proprie sensazioni digitali.
I test hanno dato risultati che oscillano tra l'impressionante e l'inquietante. Intuitor ha raggiunto miglioramenti del 76% nell'accuratezza su CRUXEval e del 65% su LiveCodeBench rispetto ai modelli baseline. Ma poi ha fatto qualcosa di ancora più inaspettato: ha iniziato a produrre risposte più lunghe e strutturate, dimostrando un miglioramento nel seguire le istruzioni senza essere mai stato specificamente addestrato per questo. Come se un pianista classico si svegliasse un giorno e scoprisse di saper suonare jazz senza averlo mai studiato.
La democratizzazione dell'impossibile
Qui le cose si fanno interessanti davvero. Il RLIF di Intuitor potrebbe finalmente portare l'addestramento avanzato in territori prima inesplorati: la creatività, l'arte, il pensiero critico. Tutti quei campi dove non esiste una risposta "giusta" ma solo risposte più o meno convincenti.
Pensate alle implicazioni: un'AI che impara a scrivere poesie non perché qualcuno le dice "questa è bella, questa è brutta", ma perché sviluppa un proprio senso estetico interno basato sulla propria confidenza. Affascinante quanto preoccupante, no?
È importante notare che questo RLIF del 2025 è diverso da un precedente progetto omonimo dello stesso ateneo del 2023, che si occupava di robotica e imitation learning. Il nuovo RLIF di Intuitor è specificamente progettato per i modelli linguistici e il ragionamento complesso, rappresentando un salto qualitativo nell'autoapprendimento delle AI.
Open source: il regalo (avvelenato?) alla comunità
Come da tradizione accademica, tutto il codice è stato reso pubblico. Intuitor è già disponibile su GitHub, pronto per essere scaricato, modificato, migliorato. O peggiorato, dipende da chi ci mette le mani.
È il bello e il rischio della ricerca aperta: accelera l'innovazione ma democratizza anche tecnologie potenzialmente dirompenti. Tra qualche mese potrebbero spuntare versioni modificate di Intuitor ovunque, dalle startup della Silicon Valley ai laboratori universitari di mezzo mondo.
Il paper, pubblicato come preprint su arXiv (arXiv:2505.19590), sta già attirando l'attenzione della comunità scientifica internazionale, con discussioni accese sui forum di ricerca e sui social media degli addetti ai lavori.
Il futuro che bussa alla porta
Questa scoperta del 2025 segna un momento particolare nella storia dell'intelligenza artificiale. Per la prima volta, abbiamo macchine che possono diventare i propri insegnanti, che sviluppano una forma primitiva di fiducia in se stesse basata su segnali intrinseci piuttosto che su feedback esterni.
È un passo avanti o un salto nel vuoto? Probabilmente entrambe le cose. Il RLIF ci porta più vicini a un'AI davvero autonoma, capace di imparare e crescere senza bisogno del nostro costante intervento, utilizzando la propria "auto-certezza" come unica bussola.
Il che, detto onestamente, è esattamente quello che tutti volevamo. E che, forse, dovrebbe anche farci riflettere un po'.
Perché quando le macchine non hanno più bisogno di noi per imparare, la domanda successiva è inevitabile: per cos'altro avranno ancora bisogno di noi?