Il Capodanno lunare diventa la vetrina dell’intelligenza artificiale cinese
C’è qualcosa che sta succedendo nel panorama dell’intelligenza artificiale cinese e vale la pena parlarne. I principali laboratori AI del paese stanno trasformando le settimane che precedono il Capodanno lunare in una vera e propria maratona di rilasci. Non è un caso: quando un miliardo e mezzo di persone è in vacanza e con lo smartphone in mano, hai un’audience che non trovi in nessun altro momento dell’anno.
La corsa AI cinese ha preso slancio l’anno scorso, quando DeepSeek ha rilasciato i suoi modelli V3 e R1 proprio a ridosso delle festività. L’effetto? Onde d’urto nel settore tech globale mentre la Cina festeggiava. Quest’anno le altre aziende hanno preso appunti.
I protagonisti del rilascio pre-festivo
Zhipu AI e il modello GLM-5
Zhipu AI – conosciuta internazionalmente come Z.ai – ha completato la sua IPO a Hong Kong l’8 gennaio 2026. Lo stesso giorno, Tang Jie, fondatore e Chief Scientist, ha annunciato tramite una lettera interna che GLM-5 è in arrivo. Parliamo di miglioramenti sostanziali in scrittura creativa, coding, ragionamento e capacità agentiche.
Ma ecco la parte interessante: l’azienda ha recentemente rilasciato GLM-Image, il primo modello multimodale ad alte prestazioni addestrato interamente su hardware domestico cinese. Processori Ascend 910C di Huawei, zero dipendenza dai chip NVIDIA. Per chi segue le dinamiche geopolitiche del settore tech, questo è un punto di svolta significativo per l’indipendenza tecnologica cinese.
Secondo fonti vicine all’azienda, GLM-5 gira già su un cluster da 100.000 chip Ascend. L’obiettivo dichiarato? Raggiungere capacità AGI entro inizio 2027 usando una pipeline completamente domestica.
MiniMax e l’efficienza del modello M2.1
MiniMax ha debuttato in borsa nello stesso periodo di Zhipu AI. Il loro M2.1, rilasciato il 23 dicembre 2025, è un modello MoE (Mixture of Experts) con 230 miliardi di parametri totali ma solo 10 miliardi di parametri attivi. Tradotto: estrema efficienza computazionale.
I benchmark parlano chiaro: supera Claude Sonnet 4.5 nel software engineering multilingue e si avvicina a Claude Opus 4.5. Il modello è open-source su Hugging Face e disponibile via API a $0.30 per milione di token in input. Numeri che fanno riflettere sulla competitività dei prezzi.
Moonshot AI e Kimi K2.5
Moonshot AI ha rilasciato Kimi K2.5 il 27 gennaio 2026. Un modello MoE con 1 trilione di parametri totali e 32 miliardi attivi per token, addestrato su 15 trilioni di token di dati misti.
Il risultato che ha fatto alzare le sopracciglia: punteggio più alto su HLE-Full (Humanity’s Last Exam), uno dei benchmark più difficili del settore con 2.500 domande che spaziano dalla matematica alla fisica. Il modello gestisce testo, immagini e video simultaneamente ed è disponibile open-source.
L’azienda ha raccolto 500 milioni di dollari a dicembre 2025 e sta attualmente cercando ulteriori finanziamenti con una valutazione di 4.8 miliardi di dollari.
Alibaba e Qwen3-Max-Thinking
Alibaba non è rimasta a guardare. Qwen3-Max-Thinking, rilasciato il 26 gennaio 2026, è il modello flagship della serie Qwen3 con oltre 1 trilione di parametri. Prestazioni comparabili a GPT-5.2-Thinking, Claude Opus 4.5 e Gemini 3 Pro su 19 benchmark.
Due innovazioni chiave: capacità adaptive tool-use (il modello chiama autonomamente strumenti esterni come web search e code interpreter) e tecniche avanzate di test-time scaling per il ragionamento. L’app Qwen conta oltre 100 milioni di utenti attivi mensili.
DeepSeek: il silenzio del leader
E DeepSeek? L’azienda che ha scatenato tutto questo fermento l’anno scorso con V3 e R1 sembra preferire un profilo più basso questa volta. Durante il 2025 ha continuato con aggiornamenti incrementali: V3-0324 a marzo, R1-0528 a maggio, V3.1 ad agosto, V3.2-Exp a settembre, V3.2 a dicembre.
Per il Capodanno 2026 non sono previsti rilasci maggiori. Il prossimo modello flagship dovrebbe essere un foundational model con parametri in scala trilioni, ma le dimensioni massicce hanno rallentato il training e ritardato la release.
Nel frattempo, Kimi K2.5 di Moonshot rimane il rilascio open-source più avanzato fino a quando qualcuno non lo detronizza.
La guerra delle buste rosse digitali
Non si tratta solo di modelli. Le aziende tech cinesi stanno investendo miliardi per acquisire utenti durante le festività:
- Tencent: 1 miliardo di yuan (144 milioni di dollari) in buste rosse digitali tramite il chatbot Yuanbao
- Baidu: 500 milioni di yuan attraverso l’app e l’assistente Wenxin
- Alibaba: 3 miliardi di yuan per promuovere l’app Qwen
Le buste rosse digitali sono la versione wired dei tradizionali pacchetti di denaro che si regalano durante il Capodanno per augurare fortuna. Collegare questa tradizione ai chatbot AI è marketing intelligente.
Il gap con gli Stati Uniti si sta riducendo
I numeri raccontano una storia precisa. Kimi K2.5 è attualmente al quinto posto sull’Intelligence Index di Artificial Analysis, dietro solo ai top model dei laboratori americani. È l’unico modello open-source e l’unico modello cinese nella top five.
Quello che emerge da questa corsa ai rilasci è un pattern chiaro: i modelli open-source cinesi stanno competendo direttamente con sistemi closed-source come GPT-5, Claude e Gemini. E lo stanno facendo a prezzi significativamente più bassi.
Implicazioni per sviluppatori e aziende
Per chi lavora nello sviluppo web e nell’integrazione AI, questi rilasci aprono scenari interessanti. Modelli potenti, open-source, con API a costi contenuti e licenze permissive come Apache 2.0. La possibilità di deployment locale su hardware non-NVIDIA.
Il Capodanno lunare 2026 potrebbe essere ricordato come il momento in cui il panorama dell’intelligenza artificiale ha iniziato a cambiare equilibri che sembravano consolidati. Resta da vedere come risponderanno i laboratori americani nei prossimi mesi.
