OpenAI lancia i suoi modelli open-weight: la sfida globale all’AI open-source cinese è lanciata

10 Agosto 2025 - 10:09
8 Agosto 2025 - 10:01
 0  6
OpenAI lancia i suoi modelli open-weight: la sfida globale all’AI open-source cinese è lanciata
Immagine creata con AI a scopo illustrativo

Il ritorno di OpenAI all’open-weight dopo cinque anni di chiusura


OpenAI inverte la rotta e rende disponibili due nuovi modelli linguistici open-weight: GPT-OSS-120b e GPT-OSS-20b


Secondo quanto dichiarato dal CEO Sam Altman, i nuovi modelli rappresenterebbero “i migliori e più utilizzabili modelli open al mondo”. La decisione riflette un cambio strategico che tiene conto dell’attuale panorama dell’intelligenza artificiale generativa, dove il fronte open-source è diventato terreno di scontro tra le superpotenze tecnologiche.


Cosa significa “open-weight” e perché non è proprio open-source


Sebbene i modelli GPT-OSS vengano descritti come “aperti”, si tratta tecnicamente di modelli open-weight, ossia disponibili pubblicamente ma senza un'apertura completa del codice e del processo di addestramento. Questo li distingue dai veri modelli open-source, che comprendono anche la trasparenza sui dati di training, sulla struttura del modello e sulle licenze permissive.

Per comprendere meglio la distinzione, si può pensare a un libro disponibile per la lettura (open-weight), ma di cui non si può consultare la bozza, né modificarne liberamente i contenuti o ripubblicarli (open-source). La scelta di OpenAI, dunque, offre libertà d’uso senza rinunciare del tutto al controllo sul prodotto.


Una risposta agli equilibri che cambiano: la leadership cinese nei modelli aperti


La decisione di OpenAI non arriva in un vuoto di mercato. Negli ultimi mesi, i modelli open-source sviluppati in Cina hanno rapidamente guadagnato terreno, diventando dominanti su piattaforme di riferimento come Hugging Face. Tra questi, la famiglia Qwen di Alibaba, Kimi K2 di Moonshot AI e il recentissimo DeepSeek-VL hanno ottenuto risultati di rilievo, superando in alcuni benchmark anche modelli occidentali ben più noti.

Il caso di DeepSeek è emblematico. Oltre a proporre architetture efficienti e scalabili, la società cinese ha diffuso modelli ad alte prestazioni come DeepSeek-Coder e DeepSeek-V2, quest’ultimo basato su una struttura MoE (Mixture of Experts), che permette di attivare solo una parte del modello alla volta per ridurre il costo computazionale.

Secondo alcuni analisti, il rilascio da parte di OpenAI dei modelli GPT-OSS rappresenta una mossa difensiva per arginare il sorpasso cinese nel settore open-weight. Un ritorno all’apertura strategica per recuperare visibilità e fiducia in una comunità sempre più attratta da modelli personalizzabili, locali e senza vincoli proprietari.


Prestazioni comparabili ai modelli della serie “o”


I due modelli GPT-OSS pubblicati da OpenAI – uno da 120 miliardi di parametri, l’altro da 20 miliardi – sono stati presentati come equivalenti, in termini di capacità, ai modelli o4-mini e o3-mini, già noti nella o-series dell’azienda. Si tratta di modelli progettati per ragionamento a basso costo e ad alta efficienza, ideali per l’esecuzione locale su server edge, laptop avanzati o anche smartphone.

L’obiettivo sembra essere duplice: da un lato, offrire agli sviluppatori e alle aziende uno strumento flessibile per test, prototipi e deploy privati; dall’altro, riaffermare una leadership intellettuale e tecnologica nel settore, proprio in un ambito – quello open – dove l’azienda era stata criticata per la sua chiusura.

L’effetto domino: nuova attenzione su governance e pluralismo


Il ritorno all’open-weight da parte di OpenAI ha anche una dimensione politica e strategica. Negli Stati Uniti, è stato recentemente lanciato l’ATOM Project (American Truly Open Models), un’iniziativa sostenuta da diverse figure della tech industry che punta a contrastare la crescente influenza cinese sui modelli generativi open-source. L’idea è preservare un ecosistema pluralista e democratico di modelli, a fronte di alternative che – secondo studi condotti su DeepSeek – mostrano tendenze alla censura o alla manipolazione informativa nei prompt sensibili.
Ad esempio, ricerche pubblicate su arXiv hanno evidenziato come modelli cinesi, pur mantenendo un output apparentemente neutro, sopprimono sistematicamente contenuti politicamente delicati nei ragionamenti interni (il modello linguistico omette deliberatamente informazioni sensibili prima che vengano trasformate nella risposta finale all’utente), indicando un possibile intervento sul training o sui filtri di decodifica.


Una nuova fase per l’intelligenza artificiale: accessibilità, potere e controllo


Il rilascio di GPT OSS da parte di OpenAI segna quindi un passaggio di fase nell’evoluzione dei modelli linguistici generativi. Dopo anni di consolidamento proprietario, la pressione competitiva – guidata in particolare da Pechino – sta riportando al centro il concetto di apertura e decentralizzazione.

Resta da capire se questa apertura sarà sufficiente a riaccendere il fermento creativo e l’adozione capillare che, fino al 2023, era stata la cifra dei modelli open-source come LLaMA di Meta. E resta anche da vedere quale impatto avranno queste scelte sul piano della sicurezza, dell’etica e della governance globale dell’AI.

L’intelligenza artificiale è sempre più intrecciata con le dinamiche geopolitiche, economiche e culturali, e il ritorno di OpenAI all’open-weight potrebbe rappresentare un segnale politico, tecnologico e culturale, che ridisegna ancora una volta gli equilibri dell’ecosistema AI.