NVIDIA e Google Cloud: l’AI Fisica e Agenti Intelligenti Escono dal Lab

NVIDIA e Google Cloud non stanno solo collaborando — stanno ridisegnando l’infrastruttura per l’AI di prossima generazione. E questa volta parliamo di roba che va oltre i chatbot: agenti che gestiscono workflow complessi, robot che lavorano in fabbrica, digital twins che simulano interi stabilimenti produttivi.

Vera Rubin: quando 10x non è marketing speak

Al Google Cloud Next di Las Vegas hanno annunciato le istanze A5X bare-metal basate su NVIDIA Vera Rubin NVL72. Numeri? 10x costo inferiore per token in inferenza, 10x throughput per megawatt rispetto alla generazione precedente. E no, non sono cifre gonfiate dal marketing — stiamo parlando di rack-scale systems progettati insieme a livello di chip, sistema e software.

La scalabilità fa girare la testa: fino a 80.000 GPU NVIDIA Rubin in un singolo cluster, 960.000 in configurazione multi-sito. Per darvi un’idea concreta: OpenAI sta usando GB300 NVL72 e GB200 NVL72 su Google Cloud per gestire inferenza su larga scala per ChatGPT. Non test di laboratorio — produzione vera.

Blackwell ovunque (anche dove non dovrebbe entrare nessuno)

Google Gemini gira ora su GPU NVIDIA Blackwell e Blackwell Ultra tramite Google Distributed Cloud. La parte interessante? NVIDIA Confidential Computing garantisce che prompt e dati di fine-tuning restino criptati anche dagli operatori dell’infrastruttura stessa.

Le Confidential G4 VMs con RTX PRO 6000 Blackwell portano queste protezioni anche in ambienti multi-tenant nel cloud pubblico. Prima offerta di confidential computing con GPU Blackwell disponibile pubblicamente — settori regolamentati, ora avete un’opzione seria per usare AI senza compromettere sicurezza o performance.

Agentic AI: quando gli agenti diventano operativi

NVIDIA Nemotron 3 Super è disponibile sulla Gemini Enterprise Agent Platform. CrowdStrike lo sta già usando per addestrare modelli specifici per cybersecurity — generazione dati sintetici, fine-tuning con NeMo, detection e response automatizzate su minacce reali.

La nuova API di reinforcement learning gestita automatizza dimensionamento cluster, recovery da fallimenti ed esecuzione job. Tradotto: i team si concentrano sul comportamento degli agenti invece che sul babysitting dell’infrastruttura.

Physical AI e digital twins industriali

Qui le cose si fanno concrete. NVIDIA Omniverse e Isaac Sim sono ora disponibili su Google Cloud Marketplace. Sviluppatori possono costruire digital twins fisicamente accurati e pipeline di simulazione robotica custom — addestrare, simulare, validare robot prima del deployment reale.

Cadence e Siemens Digital Industries Software girano su questa infrastruttura per progettare chip, veicoli autonomi, sistemi aerospaziali, macchinari pesanti. NVIDIA Cosmos Reason 2 deployato su Vertex AI permette a robot e agenti vision AI di vedere, ragionare e agire nel mondo fisico.

Schrödinger comprime simulazioni di drug discovery che prendevano settimane in poche ore usando accelerazione NVIDIA su Google Cloud. Non incrementi marginali — ordini di grandezza.

Ecosystem reale, non slide deck

Oltre 90.000 developer nella community NVIDIA-Google Cloud in poco più di un anno. Startup come CodeRabbit e Factory usano modelli basati su Nemotron per code review e sviluppo software autonomo. Snap sta spostando pipeline dati su Spark accelerato da GPU per tagliare costi di A/B testing su larga scala.

NVIDIA ha vinto il premio Google Cloud Partner of the Year in due categorie — AI Global Technology Partner e Infra Modernization Compute. Riconoscimento per expertise tecnica e allineamento go-to-market, ma soprattutto conferma che la piattaforma funziona in produzione.

Cosa significa davvero

Non è tanto l’annuncio di nuove GPU o servizi cloud. È il fatto che AI agenti e physical AI stanno uscendo dai paper accademici e dai proof-of-concept per entrare in fabbrica, in fleet di robot, in sistemi di sicurezza operativi 24/7.

La partnership NVIDIA-Google Cloud fornisce stack completo — dall’hardware (Blackwell, Rubin) al software (NeMo, Omniverse, Isaac Sim) ai servizi gestiti (Gemini Enterprise Agent Platform, Vertex AI). Chi costruisce applicazioni AI non deve più assemblare pezzi incompatibili da fornitori diversi.

Agenti che scrivono codice, robot che imparano in simulazione prima di toccare l’hardware reale, digital twins che ottimizzano linee produttive mentre girano — questa roba sta succedendo adesso, non nel 2027.