Quando gli agenti AI parlano la stessa lingua
Immaginate questo scenario: avete costruito un agente sanitario con LangGraph, un altro con Google ADK, e un terzo con BeeAI. Tutti fanno il loro lavoro, ma farli collaborare? Un incubo di integrazioni personalizzate. Fino a quando non è arrivato A2A.
Il protocollo A2A (Agent2Agent) risolve esattamente questo problema – e lo fa in un modo che dovrebbe interessare chiunque stia costruendo sistemi multi-agente seri.
Il corso DeepLearning.AI che mette le mani in pasta
DeepLearning.AI ha lanciato un corso pratico su A2A, tenuto da Holt Skinner (Google Cloud), Ivan Nardini e Sandi Besen (IBM Research). Non è il solito corso teorico – qui si costruisce davvero.
L’approccio è semplice: costruire un sistema sanitario multi-agente con tre agenti specializzati, ognuno usando un framework diverso. Poi far funzionare il tutto insieme tramite A2A. Tipo quando devi far parlare Python con Java e Rust nella stessa applicazione – frustrante se lo fai a mano, sorprendentemente pulito con gli strumenti giusti.
Cosa si impara veramente
Il corso copre tre competenze fondamentali che probabilmente vi serviranno nei prossimi mesi:
- Esporre agenti costruiti con Google ADK, LangGraph o BeeAI come server A2A-compliant
- Creare client A2A per connettersi ad agenti esistenti
- Orchestrare workflow sequenziali e gerarchici tra agenti diversi
Niente teoria astratta. Si parte da zero e si arriva ad avere agenti che collaborano davvero.
A2A nel contesto: perché esiste e a cosa serve
Google ha lanciato A2A al Cloud Next di aprile 2025. Due mesi dopo – il 23 giugno – lo hanno donato alla Linux Foundation. Non è stato un gesto simbolico: oltre 100 organizzazioni hanno dato supporto. AWS, Cisco, Microsoft, Salesforce, SAP, ServiceNow. Quando competitor diretti si schierano dietro uno standard, significa che il problema era serio.
L’architettura tecnica (senza troppi giri di parole)
A2A usa JSON-RPC 2.0 su HTTP. Scelta pragmatica – funziona ovunque, debugging facile, zero dipendenze esotiche. Supporta sia modalità sincrona che asincrona con streaming SSE per task lunghi.
L’idea centrale? Le agent card. Ogni agente espone un file JSON con metadati: nome, descrizione, versione, endpoint, modalità supportate, requisiti di autenticazione. Fondamentalmente un profilo LinkedIn per agenti AI – sapete subito con chi avete a che fare e come contattarlo.
A2A e MCP: due protocolli, due livelli
Una confusione comune: A2A sostituisce MCP (Model Context Protocol di Anthropic)? No. Operano su livelli diversi dello stack.
MCP connette gli agenti a sistemi esterni – database, API, strumenti. A2A gestisce la comunicazione agent-to-agent. Nel corso vedrete esattamente questa complementarietà: un agente healthcare provider costruito con LangGraph si connette a un server MCP per accedere ai dati, poi comunica con altri agenti tramite A2A.
Due protocolli, due problemi diversi. Entrambi necessari.
Il programma dettagliato (sezione per sezione)
Fondamenta e architettura
Si parte capendo perché A2A standardizza la comunicazione tra agenti. L’architettura client-server, le agent card, il ciclo di vita degli agenti. Niente che richieda un PhD, ma bisogna capire i concetti base prima di scrivere codice.
Primo agente: polizze assicurative
Si costruisce un agente per gestire polizze assicurative usando Claude Haiku 4.5 su Vertex AI. Poi lo si avvolge in un server A2A con il Python SDK e si crea un client per comunicarci. Prima interazione completa server-client.
Secondo agente: ricerca sanitaria con Google ADK
Qui si usa Google Agent Development Kit e Gemini 3 Pro. L’agente esegue ricerche sanitarie usando Google Search. Punto interessante: vedere come framework diversi espongono funzionalità simili in modi completamente differenti.
Concatenamento sequenziale
Gli agenti iniziano a collaborare. L’output di uno alimenta il successivo tramite A2A. Pipeline di elaborazione dove ogni step può usare il framework più adatto al task specifico.
Healthcare provider con LangGraph e MCP
Si costruisce un agente healthcare provider con LangGraph, lo si connette a un server MCP per l’accesso ai dati, e si interagisce usando il client A2A di Microsoft Agent Framework. Qui vedete A2A e MCP lavorare insieme – non è teoria, funziona davvero.
Orchestrazione dinamica con BeeAI
La parte più interessante dal punto di vista architetturale. Si usa BeeAI Framework per orchestrare più agenti dinamicamente. Un Requirement Agent decide in runtime quale agente specializzato chiamare in base alle necessità. Delegazione intelligente invece di pipeline fisse.
Deploy su Agent Stack
Ultimo passo: deployare gli agenti A2A su Agent Stack di BeeAI, infrastruttura open-source per condividere agenti. Dal localhost alla produzione.
Il contributo di IBM e l’integrazione di BeeAI
IBM aveva sviluppato il proprio Agent Communication Protocol (ACP) nel contesto di BeeAI. Invece di competere con A2A, hanno fatto il merge. Due approcci diversi allo stesso problema si sono fusi in uno standard comune.
BeeAI Framework ora opera nell’ecosistema A2A – e nel corso lo vedete in azione per l’orchestrazione dinamica. Non è un caso teorico: BeeAI viene usato in produzione per gestire workflow multi-agente complessi.
Versione attuale e roadmap
A2A v0.3 introduce supporto gRPC (per chi ha bisogno di performance più alte di HTTP), firma delle agent card (sicurezza), e supporto client esteso nel Python SDK.
Licenza Apache 2.0 – completamente open-source. Zero vendor lock-in, zero costi nascosti. Se funziona per voi, lo usate. Se no, fate fork e modificate.
Adozione enterprise: i numeri del 2025
Secondo survey 2025, il 29% delle enterprise ha già agenti AI in produzione. Il 44% pianifica di adottarli entro un anno. Questi non sono numeri da proof-of-concept – parliamo di deployment reali che risolvono problemi reali.
E qui A2A diventa rilevante: quando avete 5-10 agenti in produzione costruiti con framework diversi, la standardizzazione non è più opzionale. È l’unica via per mantenere il sistema gestibile.
Perché questo corso ora
A2A è stato donato alla Linux Foundation quattro mesi fa. L’adozione cresce velocemente – oltre 100 organizzazioni coinvolte. I framework principali (Google ADK, LangGraph, BeeAI, Microsoft Agent Framework) hanno già supporto nativo.
Il timing del corso ha senso: il protocollo è stabile abbastanza per essere usato, giovane abbastanza per influenzarne l’evoluzione. Se state costruendo sistemi multi-agente, questo è il momento di capire A2A – prima che diventi il nuovo HTTP dei sistemi agentici.
Il futuro dei sistemi AI multi-agente probabilmente non sarà monolitico. Framework diversi per task diversi, orchestrati tramite protocolli standard. A2A punta a essere quel protocollo – e il corso di DeepLearning.AI è il modo più rapido per capire se funziona davvero.
