Code execution con MCP: l’intelligenza artificiale che lavora in modo più efficiente

Il problema dell’efficienza negli agenti AI moderni

Il Model Context Protocol rappresenta una svolta nel modo in cui gli agenti di intelligenza artificiale si collegano ai sistemi esterni. Dalla sua introduzione a novembre 2024, ha trasformato radicalmente il panorama dello sviluppo, permettendo agli sviluppatori di implementarlo una sola volta e sbloccare un ecosistema completo di integrazioni. Tuttavia, quando gli agenti cominciano ad accedere a centinaia o migliaia di strumenti attraverso dozzine di server MCP, emerge un problema critico: l’efficienza del contesto.

Immagina un agente che deve elaborare centinaia di migliaia di token prima ancora di leggere una richiesta. È come dover sfogliare un’enciclopedia completa ogni volta che cerchi una singola informazione. Questo approccio non solo rallenta le operazioni, ma aumenta significativamente i costi di gestione, creando un collo di bottiglia nell’utilizzo pratico dell’intelligenza artificiale.

Come le definizioni degli strumenti sovraccaricano il sistema

La maggior parte dei client MCP carica tutte le definizioni degli strumenti direttamente nel contesto, rendendole disponibili al modello attraverso una sintassi di chiamata diretta. Questo approccio, seppur funzionale, porta con sé due problematiche rilevanti che impattano direttamente sulle prestazioni dell’intelligenza artificiale.

Prima questione: le descrizioni degli strumenti occupano uno spazio considerevole nella finestra di contesto. Quando un agente è connesso a migliaia di strumenti, il risultato è che deve elaborare un numero enorme di token ancora prima di iniziare il lavoro effettivo. Pensala in questo modo:

  • Ogni strumento richiede una descrizione dettagliata nel contesto
  • Le definizioni si accumulano rapidamente con l’aumentare degli strumenti disponibili
  • L’elaborazione preliminare può raggiungere centinaia di migliaia di token
  • I tempi di risposta si allungano proporzionalmente

Seconda questione: i risultati intermedi degli strumenti consumano token aggiuntivi. Ogni volta che il modello chiama uno strumento, il risultato deve passare attraverso la finestra di contesto. Per operazioni complesse, come l’analisi di una riunione di vendita di due ore, questo può significare elaborare ulteriori 50.000 token. Con documenti ancora più voluminosi, si rischia addirittura di superare i limiti della finestra di contesto, interrompendo completamente il flusso di lavoro.

L’impatto sulla precisione dell’intelligenza artificiale

Quando i modelli devono gestire documenti di grandi dimensioni o strutture dati complesse, la probabilità di errore aumenta. Copiare dati tra chiamate successive agli strumenti diventa un’operazione rischiosa, dove piccole imprecisioni possono accumularsi e compromettere il risultato finale. L’intelligenza artificiale, per quanto avanzata, necessita di un approccio più raffinato per gestire queste situazioni.

L’esecuzione di codice come soluzione innovativa

Gli ambienti di esecuzione di codice stanno diventando sempre più diffusi per gli agenti di intelligenza artificiale, e rappresentano la chiave per risolvere il problema dell’efficienza del contesto. L’idea centrale è presentare i server MCP come API di codice anziché come chiamate dirette agli strumenti. L’agente scrive codice per interagire con i server MCP, ottenendo vantaggi significativi su entrambi i fronti critici.

Questo approccio permette agli agenti di caricare solo gli strumenti necessari per l’attività corrente. La scoperta avviene attraverso l’esplorazione del filesystem: l’agente elenca la directory per trovare i server disponibili, poi legge i file specifici degli strumenti di cui ha bisogno. È un po’ come aprire solo i cassetti della scrivania che ti servono davvero, invece di tirarne fuori il contenuto completo ogni volta.

I risultati parlano chiaro. Cloudflare ha documentato come questo metodo, che chiamano “Code Mode”, riduca l’utilizzo dei token da 150.000 a 2.000, un risparmio del 98,7% in termini di tempo e costo. L’insight fondamentale è semplice ma potente: i modelli di intelligenza artificiale sono eccellenti nello scrivere codice, e gli sviluppatori dovrebbero sfruttare questa capacità per costruire agenti più efficienti.

Divulgazione progressiva delle funzionalità

I modelli di intelligenza artificiale eccellono nella navigazione dei filesystem. Presentando gli strumenti come codice su un filesystem, i modelli possono leggere le definizioni su richiesta, caricando solo ciò che serve nel momento in cui serve. In alternativa, uno strumento di ricerca dedicato può essere aggiunto al server per individuare le definizioni rilevanti, ottimizzando ulteriormente il processo.

Benefici concreti dell’approccio code execution

Quando gli agenti utilizzano l’esecuzione di codice con MCP, ottengono vantaggi che vanno ben oltre il semplice risparmio di token. Parliamo di un cambio di paradigma nel modo in cui l’intelligenza artificiale gestisce le operazioni complesse.

I risultati degli strumenti diventano estremamente efficienti dal punto di vista del contesto. Quando lavori con grandi dataset, l’agente può filtrare e trasformare i risultati direttamente in codice prima di restituirli al modello. Invece di elaborare 10.000 righe, l’agente vede solo le cinque righe rilevanti. Pattern simili funzionano per aggregazioni, join su fonti dati multiple o estrazione di campi specifici, tutto senza gonfiare la finestra di contesto.

Flusso di controllo potente ed efficiente

Loop, condizionali e gestione degli errori possono essere implementati con pattern di codice familiari, invece di concatenare singole chiamate agli strumenti. Questo approccio risulta molto più efficiente rispetto all’alternanza tra chiamate MCP e comandi di attesa attraverso il loop dell’agente. L’intelligenza artificiale può orchestrare operazioni complesse in modo più naturale e performante.

Per quanto riguarda le operazioni che preservano la privacy, i risultati intermedi rimangono nell’ambiente di esecuzione per impostazione predefinita. I dati sensibili possono fluire attraverso il workflow senza mai entrare nel contesto del modello. Per carichi di lavoro ancora più delicati, il sistema può tokenizzare automaticamente le informazioni sensibili: indirizzi email, numeri di telefono e nomi fluiscono da Google Sheets a Salesforce senza mai attraversare il modello, prevenendo registrazioni accidentali di dati riservati.

Persistenza dello stato e sviluppo di competenze

L’esecuzione di codice con accesso al filesystem permette agli agenti di mantenere lo stato attraverso le operazioni. Gli agenti possono scrivere risultati intermedi su file, consentendo loro di riprendere il lavoro e tracciare i progressi. Ma c’è di più: possono anche salvare il proprio codice come funzioni riutilizzabili.

Una volta che un agente sviluppa codice funzionante per un’attività, può conservare quell’implementazione per usi futuri. Questo concetto si collega strettamente alle “Skills”, cartelle di istruzioni riutilizzabili, script e risorse che migliorano le prestazioni su attività specializzate. Aggiungendo un file SKILL.md a queste funzioni salvate, si crea uno skill strutturato che i modelli possono consultare e utilizzare, costruendo progressivamente una cassetta degli attrezzi di capacità sempre più sofisticate.

Le sfide dell’implementazione pratica

Sarebbe disonesto presentare l’esecuzione di codice come una soluzione priva di complessità. Eseguire codice generato dall’intelligenza artificiale richiede un ambiente sicuro con sandboxing appropriato, limiti di risorse e monitoraggio costante. Questi requisiti infrastrutturali aggiungono overhead operativo e considerazioni di sicurezza che le chiamate dirette agli strumenti evitano.

Cloudflare ha affrontato questa sfida utilizzando i leggeri V8 isolates dei loro Workers, che forniscono sandbox più veloci, economici e usa-e-getta rispetto ai container tradizionali. La loro implementazione converte automaticamente lo schema del server MCP in un’API TypeScript con documentazione completa, eseguendo il codice in un ambiente sicuro.

Sicurezza e vulnerabilità da considerare

Con la rapida crescita dell’ecosistema MCP sono emerse sfide di sicurezza significative. Le vulnerabilità includono:

  • Command injection dovute a validazione dell’input impropria
  • Problemi di escalation dei privilegi
  • Implementazioni OAuth incorrette
  • Attacchi di resource poisoning e tool poisoning
  • Vulnerabilità di prompt injection

Nel 2025, OAuth 2.1 è stato adottato come meccanismo di autenticazione standard, rappresentando un passo importante verso un ecosistema più sicuro. I benefici dell’esecuzione di codice, costi token ridotti, latenza inferiore e composizione degli strumenti migliorata, vanno valutati attentamente rispetto a questi costi di implementazione.

L’ecosistema MCP nel 2025

L’adozione del Model Context Protocol è stata straordinaria. Da 100 server a novembre 2024, siamo passati a oltre 5.000 server a giugno 2025. I download sono esplosi da 100.000 a 8 milioni ad aprile 2025, con oltre 300 client disponibili. Il repository ufficiale su GitHub ha superato le 66.000 stelle, testimoniando l’entusiasmo della community.

Gli SDK sono ora disponibili in Python, TypeScript, Java, Kotlin, Swift e C#, rendendo il protocollo accessibile praticamente a qualsiasi sviluppatore. Aziende leader come Block, Apollo, Microsoft, OpenAI, Google e AWS hanno abbracciato lo standard, mentre GitHub, Slack, Zapier e Asana hanno rilasciato server MCP ufficiali.

Impatto economico documentato

I risultati aziendali confermano il valore dell’adozione di MCP. Le organizzazioni che hanno implementato il protocollo riportano un’adozione del 70% degli strumenti AI-powered da parte dei dipendenti nei primi sei mesi. La soddisfazione dei clienti è aumentata del 25%, mentre la produttività è cresciuta del 23%. Raiffeisen Bank International ha registrato una riduzione del 40% nei cicli di revisione, dimostrando l’impatto tangibile dell’intelligenza artificiale ben implementata.

Prospettive per il futuro dell’intelligenza artificiale con MCP

Il protocollo MCP sta trasformando gli assistenti di intelligenza artificiale da semplici chatbot a partner di sviluppo potenti, capaci di orchestrare operazioni complesse attraverso sistemi multipli. Le tendenze chiave per il prossimo periodo includono il supporto MCP remoto con server ospitati nel cloud, un focus enterprise con soluzioni production-ready, e integrazioni AI-native progettate specificamente per workflow di intelligenza artificiale.

I miglioramenti della sicurezza proseguiranno con sistemi avanzati di autenticazione e permessi. Il mercato globale delle infrastrutture AI è previsto raggiungere i 50,6 miliardi di dollari entro la fine dell’anno, indicando un interesse crescente e investimenti significativi nel settore.

L’approccio Code Mode sta guadagnando trazione con implementazioni come codemode-mcp e integrazioni in IDE popolari come Zed, Replit, Cursor e Windsurf. Il supporto per ambienti di esecuzione sicuri con Deno e workerd sta ampliando ulteriormente le possibilità.

MCP viene paragonato a standard di successo come USB-C per i dispositivi, HTTP per il web o SQL per i database. È uno standard che unifica, semplifica e accelera lo sviluppo, permettendo all’intelligenza artificiale di esprimere tutto il suo potenziale attraverso connessioni efficienti e sicure con gli strumenti e i dati di cui ha bisogno.