Quando si pensa all’intelligenza artificiale l’idea è spesso quella di sistemi che imparano sempre di più, diventano sempre più complessi e quindi più precisi. Ma un recente studio suggerisce che l’apprendimento può andare anche in senso opposto. I modelli linguistici di grandi dimensioni (LLM) esposti a un flusso continuo di contenuti virali sui social, progettati per catturare clic e attenzione piuttosto che per trasmettere senso o verità, mostrano segni di un fenomeno descritto come “brain rot”.
La ricerca, condotta dalle università del Texas ad Austin, Texas A&M e Purdue, ha alimentato due modelli open source, tra cui Llama di Meta e Qwen di Alibaba, con corpus diversi, uno tradizionale e uno composto da post brevi e virali. I risultati sono stati netti. I modelli esposti ai dati di social media hanno registrato un peggioramento in capacità di ragionamento, memoria contestuale e allineamento etico.
Il termine “brain rot” non viene usato solo per indicare ciò che può accadere alle persone dopo ore di scroll compulsivo ma oggi descrive anche il rischio per le macchine. Secondo la ricerca il danno sembrerebbe in parte irreversibile. Tra le conclusioni emerge che alimentare un modello con grandi volumi di dati indiscriminati e virali non equivale a garantirne la qualità, anzi può comprometterne l’efficacia.
Questo risultato apre una riflessione più ampia sull’ecosistema dell’intelligenza artificiale. In un mondo che guarda alla scala e alla quantità, la qualità dei dati e la selezione assumono un ruolo centrale. I modelli che apprendono dai social media rischiano di erodere le proprie basi conoscitive e di perdere efficacia in compiti complessi.
In definitiva ciò che viene proposto è che la vera innovazione non sia solo nell’hardware, nei parametri o nei calcoli ma nella cura con cui si sceglie cosa insegnare alla macchina. Il rischio non è solo che un modello sbagli ma che perda la sua capacità di pensare.