MiMo-V2.5-Pro di Xiaomi: il modello open-source che compila codice mentre dormi

Xiaomi ha rilasciato MiMo-V2.5-Pro, e questa volta hanno fatto sul serio. Stiamo parlando di un modello da 1.02 trilioni di parametri (42B attivi) con finestra di contesto da 1 milione di token. Ma sapete cosa mi ha colpito? Non sono i numeri – quelli ormai li sparano tutti. È quello che ci hanno fatto fare.

Quando un’AI compila un compilatore (e lo fa meglio di te)

Hanno preso un progetto del corso di Compilatori della Peking University – roba che a uno studente CS medio costa settimane di bestemmie e caffè – e l’hanno dato in pasto al modello. Obiettivo: implementare un compilatore SysY completo in Rust. Lexer, parser, AST, generazione Koopa IR, backend RISC-V, ottimizzazioni. Tutto.

Risultato? 4.3 ore, 672 chiamate a tool, punteggio perfetto 233/233 sulla test suite nascosta del corso.

Ma la parte che mi manda in brodo di giuggiole è come l’ha fatto. Non ha thrashato in trial-and-error come farebbe un LLM normale. Ha costruito il compilatore layer by layer: prima scaffold dell’intera pipeline, poi Koopa IR perfetto (110/110), poi backend RISC-V (103/103), infine ottimizzazioni (20/20). La prima compilazione ha passato 137/233 test – 59% al primo colpo, a freddo. L’architettura era giusta prima ancora di vedere un test.

Video editor? 8,192 righe in 11 ore

Con qualche prompt semplice, V2.5-Pro ha prodotto un’app desktop funzionante: timeline multi-traccia, trimming clip, crossfade, mixing audio, pipeline di export. 1,868 tool calls attraverso 11.5 ore di lavoro autonomo. No, non è perfetto – probabilmente DaVinci Resolve può dormire tranquillo. Ma è il tipo di cosa che ti fa pensare “aspetta, cosa?”

Analog circuit design (roba da specialisti)

Hanno provato anche con un task da corso magistrale: progettare e ottimizzare un FVF-LDO completo (regolatore low-dropout flipped-voltage-follower) nel processo TSMC 180nm CMOS. Devi dimensionare il transistor di potenza, tuning della rete di compensazione, scegliere i bias voltage in modo che sei metriche rientrino nelle specifiche contemporaneamente.

Un analog designer esperto ci mette giorni. V2.5-Pro, collegato a un loop di simulazione ngspice con Claude Code come harness? Circa un’ora di iterazioni closed-loop. Ogni metrica target raggiunta, quattro di queste migliorate di un ordine di grandezza rispetto al primo tentativo del modello stesso.

Token efficiency che conta davvero

Parliamo di soldi veri. Su ClawEval, V2.5-Pro raggiunge 64% Pass^3 usando solo ~70K token per trajectory. Questo significa 40-60% di token in meno rispetto a Claude Opus 4.6, Gemini 3.1 Pro, e GPT-5.4 a livelli di capability comparabili. L’upper-left corner del grafico è dove vuoi stare: score più alto, costo più basso.

Open source per davvero

E qui Xiaomi ha fatto la mossa intelligente: Apache 2.0, zero vincoli commerciali. Weights, tokenizer, model card completa su Hugging Face. Fate quello che volete – integrate in Claude Code, OpenCode, Kilo. Top-tier intelligence a costo più basso.

Specifiche tecniche (per i nerd tra voi)

  • Architettura: Mixture-of-Experts con hybrid attention (Local SWA + Global Attention ratio 6:1)
  • Pre-training: 27T token in FP8 mixed precision, sequenza nativa 32K estesa fino a 1M
  • Post-training: tre stage – Supervised Fine-Tuning, Domain-Specialized Training (math, safety, agentic tool-use), Multi-Teacher On-Policy Distillation
  • MTP integrato: Multi-Token Prediction nativo che triplica il throughput di output

Cosa significa davvero

Guardate, non è il solito rilascio dove changelog dice “performance improvements” e tu non vedi mezza differenza. Nei test interni, V2.5-Pro ha dimostrato un livello di intelligenza che ha costretto i ricercatori Xiaomi a ripensare come ci lavorano. Quando lo colleghi a un harness decente, può sostenere task complessi long-horizon attraverso più di mille tool calls.

L’instruction following in scenari agentici? Finalmente affidabile. Aderisce a requisiti sottili embedded nel contesto e mantiene coerenza forte attraverso contesti ultra-lunghi.

Oh, e se avete comprato un Token Plan prima del 21 aprile alle 14:00 UTC, Xiaomi vi resetta il balance di Credit usato. Dettaglio non da poco.

Disponibile ora su API Platform, AI Studio e altre superfici. Stesso pricing di prima – cambiate solo il model tag con mimo-v2.5-pro e siete pronti.