Il lancio di Google Antigravity: una nuova era per lo sviluppo software
Il 18 novembre 2025 ha segnato un punto di svolta nel panorama degli strumenti di sviluppo. Google ha presentato ufficialmente Google Antigravity, una piattaforma progettata per trasformare radicalmente il modo in cui gli sviluppatori interagiscono con l’intelligenza artificiale durante la scrittura del codice. Non si tratta di un semplice assistente, ma di un vero e proprio partner progettuale, alimentato dal nuovo e potente modello Gemini 3 Pro.
Questo annuncio non è arrivato da solo. Insieme ad Antigravity, Google ha svelato Gemini 3, che ha rapidamente raggiunto un punteggio Elo di 1501 nella LMArena Leaderboard, posizionandosi davanti a competitor agguerriti come GPT-5.1. La combinazione di una piattaforma innovativa e di un modello linguistico di nuova generazione crea un’offerta difficile da ignorare per chi opera nel settore della programmazione e dell’integrazione AI.
Architettura agent-first: oltre l’assistente passivo
Ciò che distingue Google Antigravity dalle soluzioni esistenti è la sua filosofia di base. La piattaforma non si limita a suggerire righe di codice o a completare funzioni. Antigravity abbraccia un’architettura completamente orientata agli agenti, dove l’AI assume un ruolo attivo e autonomo nel ciclo di sviluppo.
Gli agenti AI all’interno di Antigravity hanno accesso diretto a tre elementi fondamentali del workflow di uno sviluppatore:
- Editor di codice – per creare e modificare file sorgente
- Terminale – per eseguire comandi, script e operazioni di sistema
- Browser integrato Chrome – per testare interfacce web, interagire con applicazioni e validare il funzionamento in tempo reale
Questa integrazione profonda permette agli agenti di pianificare, eseguire e verificare task complessi end-to-end, senza richiedere un intervento umano costante. Non si tratta solo di generare codice, ma di gestire l’intero processo di sviluppo, dalla scrittura iniziale al testing finale.
Sistema di artifacts: costruire fiducia attraverso la trasparenza
Una delle sfide principali nell’utilizzo di agenti AI è la fiducia. Come si può essere certi che il lavoro svolto dall’AI sia corretto e affidabile? Google ha affrontato questo problema introducendo il sistema di Artifacts.
Invece di mostrare ogni singola azione dell’agente (troppo dettagliato) o solo il risultato finale (troppo vago), Antigravity produce deliverable intermedi che facilitano la comprensione e la verifica:
- Task list – obiettivi e sottobiettivi chiaramente delineati
- Piani di implementazione – passi specifici e dettagliati dell’approccio scelto
- Screenshot – stati visivi del workspace o dell’applicazione in sviluppo
- Registrazioni browser – documentazione completa delle interazioni nelle pagine web
Questi elementi permettono agli sviluppatori di verificare il lavoro svolto in modo più intuitivo e rapido, costruendo quella fiducia necessaria per delegare compiti sempre più complessi agli agenti AI.
Due interfacce per diversi stili di lavoro
Riconoscendo che gli sviluppatori hanno preferenze e necessità diverse, Antigravity offre due modalità di interfaccia distinte, ciascuna ottimizzata per specifici scenari di utilizzo.
Editor view
L’Editor View fornisce un’esperienza simile agli IDE tradizionali, con un singolo agente che opera in un pannello laterale accanto all’area di editing principale. Questa modalità è ideale per sessioni di codifica interattive, dove l’agente assiste lo sviluppatore in tempo reale, rispondendo a domande, suggerendo soluzioni e implementando modifiche su richiesta.
Manager view
La Manager View rappresenta un salto concettuale. Google la descrive come una “mission control” per generare, orchestrare e osservare multipli agenti attraverso workspace differenti in parallelo. In questa modalità, gli utenti controllano diversi agenti autonomi contemporaneamente, dirigendo il coordinamento ad alto livello mentre gli agenti gestiscono i task in modo indipendente. È l’approccio ideale per progetti complessi che richiedono lavoro simultaneo su componenti diverse.
Feedback continuo per l’auto-miglioramento
Un aspetto particolarmente interessante di Antigravity è il sistema di feedback integrato. Gli sviluppatori possono lasciare commenti direttamente sugli Artifacts creati dagli agenti o fornire feedback sugli screenshot presentati, utilizzando un meccanismo simile ai commenti di Google Docs.
Questo feedback non si perde nel vuoto. Gli agenti mantengono una knowledge base interna basata sul lavoro precedente, che include snippet di codice, task list e informazioni su come hanno completato con successo specifici compiti in passato. Nel tempo, l’agente impara dalle correzioni e dalle indicazioni ricevute, migliorando la qualità del proprio lavoro e riducendo la necessità di interventi correttivi.
Supporto multi-modello: flessibilità nella scelta
Uno degli aspetti più interessanti di Antigravity è che non obbliga gli sviluppatori a utilizzare esclusivamente Gemini 3. La piattaforma supporta anche:
- Anthropic Claude Sonnet 4.5
- OpenAI GPT-OSS (modelli open-weight)
Questa flessibilità multi-modello rappresenta un vantaggio significativo e distingue Antigravity da molti competitor che vincolano gli utenti a un singolo ecosistema. La scelta potrebbe essere collegata alla recente partnership cloud tra Google e Anthropic, che ha portato investimenti miliardari e una collaborazione strategica.
Gemini 3 Pro: il cervello dietro Antigravity
Sebbene Antigravity supporti diversi modelli, il vero motore della piattaforma è Gemini 3 Pro, il modello più avanzato mai rilasciato da Google. Le sue capacità vanno ben oltre la semplice generazione di codice.
Codifica agentiva e tool use
Gemini 3 Pro eccelle nelle capacità di codifica agentiva, raggiungendo un impressionante 54,2% su Terminal-Bench 2.0, un benchmark che testa la capacità di un modello di operare un computer tramite terminale. Il modello padroneggia sia i workflow agentivi complessi che i task zero-shot, dove deve risolvere problemi senza esempi precedenti.
Vibe coding: programmare con il linguaggio naturale
Gemini 3 Pro abilita quello che Google chiama “vibe coding”, un approccio dove il linguaggio naturale diventa l’unica sintassi necessaria. Migliorando significativamente il complex instruction following e il deep tool use, il modello può tradurre un’idea ad alto livello in un’applicazione completamente interattiva con un singolo prompt.
Il modello raggiunge un punteggio Elo di 1487 nella WebDev Arena leaderboard, dimostrando la sua superiorità nella generazione di codice web rispetto ai competitor diretti.
Comprensione multimodale avanzata
Gemini 3 è attualmente il miglior modello al mondo per la comprensione multimodale complessa, stabilendo nuovi record su benchmark come:
- MMMU-Pro – per il ragionamento complesso su immagini
- Video MMMU – per la comprensione di contenuti video
Con una finestra di contesto di 1 milione di token, gli sviluppatori possono costruire use case multimodali che prima erano impossibili, processando interi monorepo senza troncamento o perdita di contesto.
Ragionamento visivo e spaziale
Gemini 3 Pro va oltre il semplice OCR nella comprensione dei documenti, gestendo intelligentemente ragionamento complesso su contenuti testuali e visivi. Il miglioramento della comprensione spaziale del modello guida anche prestazioni eccellenti in task di ragionamento embodied come pointing, predizione di traiettoria e progressione dei task.
Queste capacità sbloccano nuovi use case attraverso veicoli autonomi, dispositivi XR e robotica, ambiti dove la comprensione dello spazio fisico è fondamentale.
Pricing trasparente e accesso gratuito
Google ha adottato una strategia di pricing aggressiva per favorire l’adozione di Antigravity. Attualmente, la piattaforma è disponibile in public preview gratuita per MacOS, Windows e Linux, con “limiti di rate generosi” per l’utilizzo di Gemini 3 Pro.
Questi limiti si rinnovano ogni cinque ore, e Google nota che solo una piccolissima frazione di power user incontra i limiti durante l’operazione tipica. Per chi desidera utilizzare Gemini 3 Pro attraverso l’API, i prezzi sono strutturati come segue:
- $2 per milione di input token (prompt ≤200k token)
- $12 per milione di output token
- $4 per milione di input token (prompt >200k token)
- $18 per milione di output token (prompt >200k token)
Il modello è anche disponibile gratuitamente (con rate limit) in Google AI Studio, permettendo a sviluppatori individuali e piccoli team di sperimentare senza costi iniziali.
Piani futuri
La pagina dei prezzi di Antigravity mostra tre livelli pianificati:
- Free (attuale) – Public preview con rate limits generosi
- Team (coming soon) – Self-serve per piccoli team e organizzazioni
- Enterprise (coming soon) – Piani Google Cloud con supporto enterprise completo
Tutti i piani includono accesso a modelli agenti (Gemini 3 Pro, Claude Sonnet 4.5, GPT-OSS), tab completions illimitate e richieste di comandi illimitate.
Integrazione profonda con l’ecosistema Google
Antigravity non è uno strumento isolato, ma si integra profondamente con l’ecosistema di servizi Google, creando un ambiente coeso per lo sviluppo AI-native.
Google AI Studio
Google AI Studio rappresenta il percorso più veloce da un prompt a un’app AI-native. La “Build mode” permette di aggiungere capacità AI più velocemente che mai, collegando automaticamente i modelli e le API giuste. Gli sviluppatori possono costruire con Gemini 3 in Google AI Studio oggi, con funzionalità come le annotazioni che abilitano iterazioni veloci e intuitive.
Vertex AI e Gemini Enterprise
Le aziende con abbonamenti Vertex AI e Gemini Enterprise hanno accesso a Gemini 3 Pro dal giorno del lancio. Il modello è disponibile anche nell’app Gemini, nell’API Gemini all’interno di AI Studio, in Antigravity e in Gemini CLI, garantendo massima flessibilità di utilizzo.
Nuovi strumenti bash
Con Gemini 3, Google sta rilasciando un bash tool client-side che abilita il modello a proporre comandi shell come parte di workflow agentivi. Questo strumento è particolarmente utile per:
- Navigare il filesystem locale
- Guidare processi di sviluppo
- Automatizzare operazioni di sistema
È abbinato a un bash tool server-side hosted per generazione di codice multi-linguaggio e prototipazione sicura, permettendo agli agenti di eseguire task complessi in ambienti controllati.
Grounding con Google Search
Gli strumenti hosted di Gemini – Grounding with Google Search e URL context – possono ora essere combinati con structured outputs. Questo è particolarmente potente per costruire use case agentivi che coinvolgono il fetching ed estrazione di dati e poi l’output in un formato specifico per task agentivi downstream.
Performance e benchmarks: i numeri parlano chiaro
Test indipendenti emersi nelle ore successive al lancio hanno fornito dati concreti sulle capacità di Antigravity rispetto ai competitor diretti, in particolare Cursor 2.0.
Navigazione codebase
In task di navigazione su repository con oltre 100k linee di codice, Antigravity risolve query il 40% più velocemente di Cursor 2.0. Questa differenza diventa ancora più significativa in progetti complessi con molteplici dipendenze.
Accuratezza refactoring
L’accuratezza su refactoring complessi salta dal 78% di Cursor al 94% di Antigravity. Questo miglioramento del 16% si traduce in meno bug introdotti e minor tempo speso in debugging.
Riduzione bug introdotti
Il tasso di introduzione bug si riduce della metà rispetto a Cursor, perché Gemini 3 ragiona in modo più affidabile sui casi limite e sulle dipendenze tra componenti.
Velocità generazione codice
Antigravity completa una tipica feature backend Next.js + Supabase in 42 secondi contro i 68 secondi di Cursor, una riduzione del 38% del tempo necessario per implementare funzionalità standard.
Context window superiore
Gemini 3 gestisce oltre 1 milione di token nativamente, il che significa che Antigravity comprende interi monorepo senza troncamento. Cursor, anche con il suo ultimo modello Composer, limita il contesto effettivo molto più in basso nella pratica, richiedendo workaround per progetti di grandi dimensioni.
API testing in tempo reale
Una funzionalità distintiva di Antigravity è l’API testing in tempo reale, zero-config all’interno dell’IDE. Gli sviluppatori evidenziano un endpoint, e Antigravity genera automaticamente richieste, mock delle dipendenze e valida le risposte contro gli schemi. Questa funzionalità si integra profondamente con i servizi Google Cloud ma funziona con qualsiasi REST o GraphQL API.
Sicurezza e privacy: priorità enterprise
Google affronta le preoccupazioni di sicurezza frontalmente, riconoscendo che per molte organizzazioni la protezione del codice proprietario è fondamentale.
Ambienti tenant-isolated
Antigravity processa tutto il codice in ambienti tenant-isolated per default, garantendo che i dati di un cliente non vengano mai mescolati con quelli di un altro. Le organizzazioni possono optare per l’utilizzo dei dati per il miglioramento del modello o mantenere tutto air-gapped, secondo le proprie policy di sicurezza.
Compliance enterprise
SOC 2, ISO 27001 e compliance FedRAMP sono disponibili dal giorno uno, rendendo la piattaforma enterprise-ready dal lancio. Questo elimina una delle principali barriere all’adozione per grandi organizzazioni che operano in settori regolamentati.
Considerazioni privacy
È importante notare che il codice viene inviato ai server Google per l’elaborazione. Google può utilizzare questi dati per migliorare l’AI, sebbene questa opzione sia disabilitabile. Per progetti altamente sensibili, gli sviluppatori dovrebbero rivedere attentamente le policy sulla privacy e considerare l’utilizzo delle opzioni air-gapped disponibili nei piani enterprise.
La connessione con Windsurf
Alcune persone sui social media hanno notato somiglianze tra Antigravity e Windsurf, e questa osservazione ha una base concreta. Google ha assunto il team di Windsurf – incluso il CEO Varun Mohan – a luglio e ha licenziato la tecnologia per $2,4 miliardi. Lo stesso Varun Mohan ha confermato su Twitter che Antigravity viene dal suo team, spiegando molte delle scelte architetturali della piattaforma.
Posizionamento nel portfolio Google
Antigravity non è l’unico strumento di coding di Google, ma si unisce a una linea già ricca di prodotti:
- Jules – assistente di codifica integrato negli IDE, invocabile via CLI, che può funzionare in modo asincrono
- Gemini CLI – interfaccia a riga di comando per interagire con i modelli Gemini
- Gemini Code Assist – lanciato l’anno scorso per fornire suggerimenti di codice in tempo reale
Tuttavia, Antigravity competerà più direttamente con piattaforme di coding agent come Codex di OpenAI, Claude Code di Anthropic e Cursor, rappresentando l’offerta più completa e ambiziosa di Google in questo spazio.
Casi d’uso dimostrativi: dalla teoria alla pratica
Un video dimostrativo rilasciato da Google mostra Antigravity che costruisce un’applicazione base di flight tracker. Gli agenti gestiscono il ciclo completo, dalla costruzione dei componenti dell’app alla conduzione di test per assicurare la funzionalità, fino alla generazione di una registrazione browser che documenta visivamente l’esecuzione riuscita.
Questa registrazione cattura le prestazioni dell’app in un ambiente browser live, fornendo prova visiva che l’applicazione funziona come previsto. È un esempio concreto di come gli Artifacts facilitino la verifica del lavoro svolto dagli agenti.
Generative UI: il futuro delle interfacce utente
Gemini 3 rende possibile la Generative UI (o generative interfaces), dove gli LLM generano sia contenuto che intere esperienze utente. Questo include pagine web, giochi, strumenti e applicazioni che sono “automaticamente progettate e completamente personalizzate in risposta a qualsiasi domanda, istruzione o prompt”.
Dynamic view
Gemini 3 progetta e codifica una “risposta interattiva completamente personalizzata per ogni prompt”. Personalizza l’esperienza riconoscendo che spiegare il microbioma a un bambino di 5 anni richiede contenuto diverso e un set diverso di funzionalità rispetto a spiegarlo a un adulto. L’interfaccia si adatta dinamicamente al pubblico e al contesto.
Visual layout
Gemini 3 può creare una “vista immersiva in stile magazine completa di foto e moduli”. La differenza principale rispetto alla dynamic view è come il modello genererà slider, checkbox e altri elementi interattivi, creando esperienze visivamente ricche e funzionalmente complete.
Gemini 3 Deep Think: ragionamento ancora più profondo
Google ha anche annunciato la modalità Gemini 3 Deep Think con capacità ancora migliori di ragionamento e comprensione multimodale. Questa versione supera Gemini 3 Pro su benchmark particolarmente impegnativi:
- Humanity’s Last Exam: 41,0% (senza l’uso di strumenti)
- GPQA Diamond: 93,8%
- ARC-AGI: 45,1% senza precedenti (con esecuzione di codice)
Questa modalità sarà disponibile nelle prossime settimane per gli abbonati AI Ultra, dopo valutazioni di sicurezza e input dai safety tester. Rappresenta il livello più avanzato di ragionamento AI attualmente disponibile.
Integrazione in Google Search
Per la prima volta, Google sta lanciando un modello Gemini in Search dal giorno uno. Gemini 3 in AI Mode in Search offre ragionamento più complesso e nuove esperienze dinamiche. Selezionando la modalità “Thinking” in Search, il modello utilizza le capacità “Deep Think” per fornire risposte più accurate e contestualizzate, integrando capacità di ricerca tradizionale con ragionamento AI avanzato.
Adozione enterprise e clienti early-adopter
Google Cloud ha citato una vasta gamma di clienti Gemini 3 di alto profilo tra cui:
- Box
- Cursor (ironicamente, un competitor di Antigravity)
- Figma
- Shopify
- Thomson Reuters
Questi partner early-adopter stanno già integrando Gemini 3 nei loro workflow e prodotti, fornendo feedback prezioso per il miglioramento continuo della piattaforma.
Roadmap e sviluppi futuri
Google pianifica di rilasciare modelli aggiuntivi nella serie Gemini 3 presto, permettendo agli utenti di fare di più con l’AI. L’azienda sta anche lavorando su:
- Miglioramenti continui basati sul feedback degli utenti
- Espansione delle capacità agentive
- Nuove integrazioni con strumenti di terze parti
- Versioni enterprise con supporto dedicato
La roadmap suggerisce un impegno a lungo termine per fare di Antigravity non solo un prodotto competitivo, ma lo standard de facto per lo sviluppo AI-assisted.
Feedback iniziali: luci e ombre
Gli utenti early access di Antigravity hanno avuto esperienze miste. Molti segnalano errori e generazione lenta, tipici di una public preview. Alcuni sviluppatori hanno riscontrato problemi di rate limit anche con account Google AI Ultra personali, suggerendo che il sistema è sotto forte pressione nella fase iniziale di lancio.
Tuttavia, il feedback generale riconosce il potenziale trasformativo della piattaforma, con molti sviluppatori disposti a tollerare problemi iniziali in cambio dell’accesso a capacità agentive così avanzate.
Implicazioni per il mercato degli strumenti di sviluppo
L’annuncio di Antigravity segnala uno shift significativo nel panorama degli strumenti di sviluppo AI. Quando l’azienda che addestra i modelli sottostanti controlla anche l’editor, gli strumenti di terze parti affrontano pressione esistenziale.
Vantaggi competitivi di Google
- Controllo completo dello stack (modello + piattaforma)
- Integrazione profonda con l’ecosistema Google Cloud
- Pricing aggressivo (gratuito in preview)
- Capacità di context window superiori
- Accesso diretto a funzionalità multimodali avanzate
Sfide per Cursor e competitor
- Cursor addebita $20-$40 per utente al mese
- Context window limitati rispetto a Gemini 3
- Dipendenza da modelli di terze parti
- Necessità di differenziazione continua per giustificare i costi
La competizione si intensificherà ulteriormente quando Google lancerà i piani Team ed Enterprise, potenzialmente con pricing ancora più competitivo rispetto alle alternative esistenti.
Prospettive future per lo sviluppo AI-assisted
Google Antigravity rappresenta più di un nuovo strumento – è una visione per il futuro dello sviluppo software. La combinazione di architettura agent-first, accesso diretto agli strumenti di sviluppo, sistema di Artifacts per verifica trasparente e supporto multi-modello crea una piattaforma che sfida direttamente le assunzioni su cosa significhi “assistenza AI” nello sviluppo.
Il lancio simultaneo con Gemini 3 Pro, che stabilisce nuovi record su praticamente ogni benchmark AI, fornisce ad Antigravity una base tecnica solida per competere e potenzialmente superare le soluzioni esistenti. La finestra di contesto di 1 milione di token elimina una delle principali limitazioni degli strumenti attuali, permettendo agli sviluppatori di lavorare su progetti di qualsiasi dimensione senza perdita di contesto.
La visione di Google per un “agent-first future” nello sviluppo software è chiara e ambiziosa. Invece di limitarsi a completare il codice, Antigravity vuole trasformare l’AI in un vero partner collaborativo capace di pianificare, eseguire e verificare autonomamente task software complessi. Il sistema di feedback continuo e la knowledge base interna permettono agli agenti di imparare e migliorare nel tempo, avvicinandosi sempre più all’ideale di un collaboratore esperto.
Il supporto multi-modello è particolarmente interessante perché evita il lock-in e riconosce che diversi modelli hanno punti di forza diversi. Gli sviluppatori possono scegliere il modello più adatto per ogni specifica task, massimizzando qualità ed efficienza.
Mentre la piattaforma è ancora in public preview e presenta alcune limitazioni iniziali, il potenziale trasformativo è innegabile. Il successo o fallimento di Antigravity dipenderà dalla capacità di Google di mantenere le promesse di performance, affidabilità e sicurezza mentre scala la piattaforma oltre la fase iniziale. Tuttavia, con l’investimento massiccio in tecnologia, l’acquisizione del team Windsurf e l’integrazione profonda con l’ecosistema Google Cloud, l’azienda ha le risorse necessarie per sostenere questa visione a lungo termine.
Per gli sviluppatori e i professionisti dell’integrazione AI, Antigravity offre un’opportunità entusiasmante di sperimentare con il futuro dello sviluppo software. Non si tratta solo di scrivere codice più velocemente, ma di ripensare fondamentalmente il processo di sviluppo in un’era dove l’AI non è più un semplice assistente, ma un partner progettuale capace di comprendere, ragionare e agire autonomamente su task complessi.
