Quando le chat si moltiplicano, arriva Projects
Se lavorate con Gemini da un po’, probabilmente conoscete la sensazione. Aprite la sidebar, vedete quella lista infinita di conversazioni – “Analisi Q3”, “Strategia marketing v2”, “Ancora strategia marketing”, “Quella cosa del budget” – e pensate “c’era qualcosa di importante qui dentro, ma dove?”
Google sta testando una soluzione: Projects. Non è ancora disponibile per tutti, ma l’infrastruttura c’è già nella build beta di Gemini Enterprise. Gli utenti possono vedere l’interfaccia, solo che è bloccata lato server. Classico soft-launch – la funzione esiste, Google sta solo decidendo quando premere il pulsante.
Cosa fa Projects (e perché vi interessa)
L’idea base è semplice: raggruppare conversazioni correlate in workspace tematici. Invece di avere venti chat sparse su “migrazione cloud”, ne avete una sola che contiene tutto il contesto.
Ma c’è di più. Ogni progetto può:
– Ospitare fino a 10 file (PDF, documenti, codice, immagini)
– Mantenere il contesto tra conversazioni multiple
– Avere obiettivi specifici che guidano il comportamento di Gemini
– Includere un pulsante Research integrato nell’interfaccia
– Essere fissato in alto per accesso rapido
Tradotto: caricate la documentazione tecnica del vostro progetto, definite l’obiettivo (“genera API REST per questo schema dati”), e Gemini ha tutto quello che serve per dare risposte coerenti invece di resettarsi ogni volta.
Il problema che risolve (quello vero)
Le AI conversazionali hanno un difetto strutturale: ogni chat è un universo isolato. Chiedete a Gemini di analizzare un documento lunedì, poi mercoledì gli fate una domanda correlata, e vi tocca ri-caricare tutto. Il contesto si perde.
Projects confina il set di riferimento. Quando l’AI sa esattamente quali file e quali conversazioni considerare, le allucinazioni diminuiscono drasticamente. Non è magia – è semplicemente che state limitando lo spazio in cui Gemini può andare a cercare risposte sbagliate.
Chi c’era prima (spoiler: non sono i primi)
OpenAI ha rilasciato ChatGPT Projects a dicembre 2024. Anthropic Claude e xAI Grok hanno seguito subito dopo. Google arriva dopo, ma con un vantaggio non banale: l’integrazione con Workspace.
Se Projects si integra con le policy di governance di Google Workspace – e considerando che Gemini Enterprise è già dentro Workspace, sarebbe strano il contrario – gli amministratori IT avranno controlli granulari su cosa finisce dove. Per ambienti regolamentati (sanità, finanza, pubblica amministrazione) questa non è una feature figa, è il requisito base per poter usare l’AI.
Gemini Enterprise, il contesto più ampio
Projects non arriva nel vuoto. Gemini Enterprise include già:
– Accesso a Gemini 2.0 (il modello più recente)
– Agenti pre-costruiti come Deep Research e NotebookLM
– Integrazione nativa con Google Workspace, Microsoft 365, Salesforce e SAP
– Google Agentspace (recentemente incorporato nella piattaforma)
L’aggiunta di Projects completa il quadro: non solo avete l’AI potente e gli strumenti specializzati, ma anche il modo di organizzare il lavoro in modo che non diventi un casino ingestibile.
Disponibilità e tempistiche (quello che sappiamo)
La funzione è visibile nella beta ma bloccata. Il livello di rifinitura dell’interfaccia suggerisce che Google sia molto vicina all’attivazione – probabilmente stanno solo pianificando il rollout.
Probabile che il rilascio iniziale sia limitato ai clienti Enterprise. Ha senso: Projects risolve problemi che le aziende hanno più degli utenti consumer, e Google può testare su un pubblico controllato prima di aprire a tutti.
Cosa aspettarsi quando arriverà
Se siete su Gemini Enterprise, aspettatevi Projects nelle prossime settimane o mesi. Quando arriva, il workflow cambia:
**Prima**: aprite Gemini, scrivete prompt, sperate che si ricordi cosa avete detto ieri, ri-caricate file, bestemmiate quando dimentica tutto.
**Dopo**: create un progetto “Analisi vendite Q1”, caricate i CSV e i report precedenti, definite obiettivo (“identifica pattern anomali nelle vendite Europa”), e ogni conversazione in quel progetto parte già con tutto il contesto.
Non è solo convenienza – è la differenza tra usare l’AI come calcolatrice (una domanda, una risposta, reset) e usarla come collaboratore (contesto persistente, memoria condivisa, obiettivi chiari).
L’AI diventa meno frustrante
Il vero beneficio di Projects non è tecnico, è psicologico. Quando l’AI si ricorda cosa state facendo, quando non dovete ri-spiegarle tutto ogni volta, quando le risposte sono coerenti perché il contesto è stabile – semplicemente smettete di lottare contro lo strumento e iniziate a lavorarci insieme.
Google sta testando questo approccio sui clienti enterprise prima di estenderlo. Se funziona bene (e considerando che ChatGPT Projects ha avuto feedback positivi, probabilmente funzionerà), aspettatevi che diventi lo standard per come interagiamo con le AI generative al lavoro.
