Il 7 novembre 2025 la società cinese DeepSeek è tornata sotto i riflettori dopo che il suo fondatore, l’ingegnere Li Yuxiang, ha dichiarato pubblicamente di essere “pessimista sull’impatto sociale dell’intelligenza artificiale”. L’intervento, pronunciato durante un convegno a Shanghai, ha sorpreso analisti e investitori: per la prima volta un dirigente di un colosso tecnologico cinese ha ammesso apertamente che i benefici economici della nuova ondata di modelli generativi potrebbero non compensare i costi sociali.
Fondata nel 2023, DeepSeek è diventata in meno di due anni il simbolo della competizione asiatica nel campo dell’AI avanzata. I suoi modelli di deep reasoning sono impiegati in automazione industriale, sicurezza, traduzione e generazione multimodale di contenuti. Ma la stessa rapidità che ha favorito il successo commerciale sta alimentando le critiche. Esperti di governance digitale segnalano che l’azienda opera con margini di opacità nella gestione dei dati e nel monitoraggio dei propri modelli, in particolare dopo l’introduzione del sistema R1, capace di simulare catene logiche complesse e produrre testi altamente realistici.
Il dibattito si è intensificato quando alcune organizzazioni per i diritti digitali hanno accusato DeepSeek di sfruttare in modo eccessivo dataset comportamentali raccolti senza consenso esplicito. L’uso di materiale proveniente da social network e piattaforme di messaggistica per addestrare modelli linguistici ha sollevato dubbi sulla tutela della privacy e sulla possibilità che la tecnologia venga impiegata per attività di sorveglianza. In risposta, la società ha dichiarato che tutti i dati sensibili vengono anonimizzati e che gli algoritmi sono progettati per evitare correlazioni dirette con individui identificabili.
Oltre al tema dei dati, cresce la preoccupazione per gli effetti economici e occupazionali. Alcune regioni della Cina orientale, dove DeepSeek fornisce soluzioni di automazione industriale, hanno registrato riduzioni significative della manodopera impiegata nei processi di controllo qualità e manutenzione. Le autorità locali, pur riconoscendo il contributo dell’azienda alla crescita del settore high-tech, chiedono ora politiche di riconversione professionale per compensare l’impatto dell’automazione.
Sul fronte internazionale, il caso DeepSeek diventa un banco di prova per la cooperazione tra Europa e Asia sul tema della sicurezza dei modelli. La Commissione europea ha espresso interesse a valutare l’inclusione dei prodotti DeepSeek nelle procedure di certificazione previste dall’AI Act. Alcuni ricercatori occidentali, tuttavia, invitano alla prudenza: le architetture basate su dati parzialmente chiusi potrebbero rendere difficile verificare vulnerabilità, bias e meccanismi di auto-correzione.
Nonostante le controversie, DeepSeek continua a espandersi. La società ha firmato nuovi accordi con produttori di semiconduttori e piattaforme di cloud computing, rafforzando la propria posizione come punto di riferimento per l’ecosistema cinese dell’AI. Il paradosso è evidente: più emergono i rischi sociali, più cresce la domanda di soluzioni DeepSeek nei mercati globali.
Alla fine, il caso di DeepSeek non parla solo della Cina ma del futuro stesso dell’intelligenza artificiale. La corsa alla potenza di calcolo e all’efficienza economica ha oscurato la domanda più semplice: a chi serve davvero questa intelligenza? Se la tecnologia genera ricchezza concentrata e lavoro precario, la promessa di progresso rischia di trasformarsi in un’altra forma di disuguaglianza algoritmica.