Se pensate che il mercato dell’AI enterprise sia ormai definito, preparatevi a rivedere le vostre certezze. I dati del terzo sondaggio annuale di a16z su 100 CIO di aziende Global 2000 raccontano una storia più sfumata – e francamente più interessante – di quanto il chiacchiericcio su X vi faccia credere.
Il panorama attuale: tre giganti, una battaglia
OpenAI guida la classifica. Punto. Il 78% dei CIO enterprise utilizza i loro modelli in produzione. Ma ecco dove la faccenda si complica: Anthropic sta recuperando terreno a una velocità che farebbe girare la testa. Da maggio 2025, la loro penetrazione enterprise è cresciuta del 25%. Oggi il 44% delle aziende li usa in produzione, percentuale che sale oltre il 63% se includiamo i test.
La quota di portafoglio racconta una storia simile. OpenAI detiene ancora circa il 56%, ma Anthropic e Google Gemini stanno erodendo quella fetta mese dopo mese. I CIO intervistati si aspettano che questa tendenza continui nel 2026.
I dati di Yipit, basati su un panel di circa 1.000 aziende mid-market ed enterprise, confermano questa fotografia: OpenAI intorno all’85%, Anthropic vicino al 55% e in crescita.
Non esiste un vincitore unico – dipende da cosa ci fate
Il mercato dell’intelligenza artificiale enterprise non è monolitico. È un mosaico di casi d’uso dove ogni player ha i propri punti di forza.
- OpenAI domina i casi d’uso “orizzontali” – chatbot generici, gestione della conoscenza aziendale, supporto clienti. Sono arrivati prima, e l’inerzia conta
- Anthropic guida nello sviluppo software e nell’analisi dati. I CIO citano i rapidi miglioramenti delle loro capacità dalla seconda metà del 2024 come catalizzatore dell’adozione
- Google Gemini se la cava bene un po’ ovunque, con un’eccezione: il coding, dove la sua quota enterprise rimane significativamente più bassa
Data questa frammentazione, l’81% delle aziende usa ormai tre o più famiglie di modelli in test o produzione. Era il 68% meno di un anno fa.
Cosa sta guidando questi cambiamenti
Alcuni pattern emergono chiaramente dai dati.
La ricerca e sviluppo come acquisizione clienti
I guadagni di Anthropic sono trainati dai modelli più avanzati. Il 75% dei loro clienti ha Sonnet 4.5 o Opus 4.5 in produzione – una percentuale che surclassa nettamente l’adozione dei modelli precedenti. OpenAI, al contrario, vede ancora un uso significativo di famiglie di modelli più vecchie. Funzionano “abbastanza bene”, e i costi di switch stanno aumentando.
I casi d’uso token-intensive fanno la differenza
Escludendo le startup di AI coding dal sondaggio, i casi d’uso legati al coding – che consumano enormi quantità di token – hanno rappresentato una parte sostanziale dei guadagni di quota di portafoglio di Anthropic. I CIO sono rimasti colpiti anche dai progressi nelle attività di scrittura, ragionamento e analisi.
I reasoning model stanno mantenendo le promesse
Il 54% dei rispondenti afferma che i reasoning model hanno accelerato l’adozione degli LLM. Citano tempi più rapidi per creare valore, meno prompt engineering necessario, migliore integrazione con i sistemi interni e maggiore fiducia grazie ad accuratezza ed esplicabilità. OpenAI ha introdotto il modello o1 a settembre 2024, seguito da o3, o3-mini e o4-mini nei primi mesi del 2025. Il consumo medio di token di reasoning per organizzazione è aumentato di circa 320 volte negli ultimi 12 mesi.
Build vs buy: le applicazioni di terze parti sono vive e vegete
C’è chi annunciava la morte delle applicazioni AI di terze parti. I dati dicono il contrario.
I CIO stanno spostando budget verso applicazioni di terze parti nella maggior parte dei casi d’uso. Anche in aree come la gestione della conoscenza e l’automazione dei workflow – dove storicamente dominava lo sviluppo interno – molte aziende prevedono di migrare dalle implementazioni LLM fai-da-te verso applicazioni pacchettizzate.
Il futuro resta incerto. La gara tra quanto velocemente le app di terze parti riescono a costruire in profondità (con workflow e harness specifici per dominio) e quanto velocemente migliorano le capacità dei modelli si è solo intensificata.
Il vincitore inaspettato: Microsoft
Ecco dove i dati contraddicono più nettamente la narrativa online.
Con tutto il parlare di OpenAI contro Anthropic, di Claude Code contro Codex contro Cursor, è facile dimenticare che Microsoft continua a dominare l’enterprise. Gran parte dell’adozione AI nelle Global 2000 passa attraverso Microsoft o prodotti AI lanciati da incumbent.
- Microsoft 365 Copilot guida la chat enterprise, anche se ChatGPT ha ridotto significativamente il divario
- GitHub Copilot resta il leader nel coding enterprise – con il 42% della quota di mercato tra gli strumenti di coding AI a pagamento
- Il 65% delle aziende preferisce soluzioni incumbent quando disponibili, citando fiducia, integrazione con sistemi esistenti e semplicità di procurement
Microsoft 365 Copilot è stato adottato da oltre il 90% delle Fortune 500. Ma c’è un asterisco: secondo Lighthouse, il 70% di queste adozioni sono pilot e rollout graduali, non deployment enterprise-wide. E quasi la metà dei leader IT ammette di non avere fiducia nella capacità di gestire i rischi di sicurezza e accesso di Copilot.
Cursor sta crescendo in modo esplosivo
Cursor ha raggiunto 500 milioni di dollari di ARR a maggio 2025, crescendo del 60% in un solo mese. È la società SaaS in più rapida crescita di sempre da 1 milione a 500 milioni di dollari, raddoppiando il fatturato circa ogni due mesi. La valutazione ha toccato 29,3 miliardi di dollari a novembre 2025.
Un dato che fa riflettere: nel sondaggio a16z precedente, il punteggio NPS di Microsoft Copilot è crollato di 48 punti dopo che gli stessi sviluppatori hanno provato Cursor. L’esperienza cambia le aspettative.
La fiducia nei lab AI continua a crescere
La preferenza per i modelli closed source è aumentata costantemente dal primo sondaggio di marzo 2024. Oggi oltre un terzo delle aziende preferisce modelli closed source, trainati dal ritmo di cambiamento nella qualità dei modelli, dalla limitata disponibilità interna di talenti AI e – sorprendentemente – dalla sicurezza dei dati.
Come segnale di fiducia: circa l’80% delle aziende si sente a proprio agio nell’ospitare modelli direttamente presso i provider, in aumento dal 40% di marzo 2024.
Il costo totale di proprietà tra modelli open e closed sta convergendo. I lab e i cloud provider hanno ridotto drasticamente il costo dell’intelligenza negli ultimi anni. Nei casi in cui il TCO dei modelli closed rimane più alto, il gap di capacità giustifica il costo aggiuntivo.
Il ROI reale vs il ROI su X
Il ROI riportato dalle aziende sugli LLM è positivo, ma meno drammatico di quanto ci si aspetterebbe leggendo il discourse su X.
Questo gap probabilmente riflette due fattori. Primo: le aziende stanno ancora imparando a deployare l’AI efficacemente, e spesso hanno bisogno di partner per tradurre i modelli in workflow reali. Secondo: le aziende non sanno cosa sia “buono” finché non lo provano, e molte stanno lavorando con soluzioni AI incumbent che potrebbero non alzare l’asticella.
I numeri della spesa: crescita oltre le aspettative
La spesa enterprise AI continua a sorprendere al rialzo. La domanda rimane più forte di quanto aziende e provider si aspettassero.
Negli ultimi due anni, la spesa media enterprise per LLM è passata da circa 4,5 a circa 7 milioni di dollari. Le aziende prevedono una crescita del 65% quest’anno, arrivando a circa 11,6 milioni. La spesa per applicazioni ha seguito lo stesso pattern: le aziende prevedevano di spendere circa 3,9 milioni ma ne hanno spesi quasi 6.
Un dato significativo: l’allocazione del budget per l’innovazione è scesa dal 25% al 7% della spesa totale per l’AI. Tradotto: l’AI si è spostata dai programmi pilota alle voci di budget permanenti nelle business unit e nell’IT core.
Il 37% dei rispondenti usa ora 5 o più modelli in produzione, rispetto al 29% dell’anno scorso. Il premio è enorme, le dinamiche stanno cambiando, e l’AI enterprise resterà il campo di battaglia da osservare.
