Il 22 ottobre 2025 la University of Maryland, in collaborazione con Microsoft e diversi centri di ricerca europei, ha pubblicato uno studio che ha sorpreso la comunità scientifica. L’obiettivo era valutare le prestazioni dei più avanzati modelli di linguaggio artificiale in 26 idiomi diversi, osservando in quale lingua i prompt, cioè le istruzioni date alle intelligenze artificiali, risultassero più efficaci. I risultati hanno rovesciato un dogma: non è l’inglese la lingua più performante, ma il polacco.
Il dato, emerso da test condotti su modelli come GPT-4, Gemini, Llama e Qwen, ha mostrato che i prompt in lingua polacca ottengono la percentuale più alta di risposte corrette e coerenti, intorno all’88 per cento. L’inglese, nonostante la sua presenza dominante nei dataset di addestramento, si è fermato a poco più dell’83, piazzandosi soltanto al sesto posto. Al di sopra, insieme al polacco, figurano anche il francese, l’italiano e lo spagnolo.
La spiegazione, secondo i ricercatori, va cercata nella struttura stessa delle lingue slave. Il polacco è ricco di declinazioni e flessioni, elementi che obbligano il modello a riconoscere con maggiore chiarezza le relazioni tra le parole. Questa complessità grammaticale fornisce all’intelligenza artificiale più informazioni strutturali, migliorando la capacità di interpretare l’intento dell’utente e riducendo l’ambiguità. Non si tratta quindi di una questione di quantità di dati, ma di qualità linguistica. Una lingua con regole più coerenti e meno eccezioni permette al modello di costruire rappresentazioni più solide del significato.
Lo studio mette così in crisi la convinzione che la performance di un modello sia direttamente proporzionale alla quantità di contenuti digitali disponibili in una lingua. In realtà la presenza massiccia di materiale in inglese può persino generare rumore, poiché i dataset contengono testi eterogenei e incoerenti. Al contrario, idiomi meno diffusi ma più regolari consentono un apprendimento più stabile. Nei test condotti su prompt lunghi, fino a 128 mila token, le lingue con maggiore struttura morfologica hanno mostrato una superiorità crescente man mano che la complessità del compito aumentava.
Il vantaggio del polacco non è solo linguistico ma anche cognitivo. La costruzione sintattica obbliga a esplicitare il ruolo di ogni parola, e questo aiuta l’algoritmo a comprendere l’intenzione dell’utente. La lingua diventa un filtro cognitivo, un dispositivo di precisione. Il dialogo tra uomo e macchina non si limita quindi alla traduzione letterale, ma assume il valore di un’interazione culturale. Parlare una lingua o un’altra significa anche proporre un diverso modo di ragionare, e di conseguenza di istruire l’intelligenza artificiale.
Le implicazioni sono profonde. Se la lingua modifica l’efficacia del prompt, la competenza linguistica dell’utente diventa una variabile tecnica, non solo comunicativa. I ricercatori avvertono che i risultati non vanno generalizzati: il primato del polacco riguarda determinati modelli e compiti specifici, e servono ulteriori verifiche. Tuttavia il messaggio è chiaro. L’idea che l’inglese sia la lingua naturale delle macchine mostra i suoi limiti. Le IA non pensano in inglese: pensano nella lingua che meglio traduce la logica della frase.
Questa scoperta apre un nuovo fronte di ricerca nel campo del prompt engineering. Non si tratta più soltanto di scrivere istruzioni chiare, ma di capire come la lingua scelta possa potenziare o indebolire l’efficacia della comunicazione con la macchina. In futuro il progettista di prompt dovrà conoscere non solo i modelli ma anche la linguistica comparata, perché la grammatica, oggi più che mai, è diventata una tecnologia cognitiva.