Il problema vero con gli agenti locali
Avete presente quando dite a Claude Code o Cursor “cerca nella mia documentazione locale”? Quello che succede dietro le quinte è un massacro di token. L’agente deve leggere più file, ripetutamente. Cerca per parole chiave, perde il contesto tra i documenti, e quando non trova qualcosa – ecco il bello – inventa API che sembrano plausibili ma non esistono.
Ogni domanda richiede di rileggere più file. Costoso, lento, impreciso. E le allucinazioni? Quelle sono il vero problema quando stai costruendo codice che dovrebbe funzionare al primo tentativo.
NotebookLM MCP Server: la soluzione che non sapevi di volere
Permettete ai vostri agenti locali di chattare direttamente con NotebookLM – la knowledge base zero-allucinazioni di Google, alimentata da Gemini 2.5. Il flusso diventa qualcosa del tipo: il vostro task passa all’agente locale, che chiede a NotebookLM, che fa sintetizzare la risposta da Gemini, e l’agente scrive codice corretto.
Il vero vantaggio? Niente più copia-incolla manuale tra NotebookLM e l’editor. L’agente interroga NotebookLM direttamente nella CLI. Costruisce comprensione profonda tramite follow-up automatici – Claude fa più domande in sequenza, ognuna basata sulla precedente. Tipo quando state cercando di capire una libreria nuova e fate quella serie di domande concatenate.
Confronto con le alternative (quello che già fate)
Feed docs a Claude? Costo token alto, setup immediato, allucinazioni garantite, qualità variabile. Web search? Costo medio, setup immediato, allucinazioni alte, qualità altalenante. Local RAG? Costo medio-alto, setup che richiede ore, allucinazioni medie, qualità che dipende.
NotebookLM MCP? Costo token minimo, setup 5 minuti, allucinazioni zero (grassetto mio, perché questo è il punto), qualità di sintesi esperta.
Setup: cinque minuti, davvero
Per Claude Code fate: claude mcp add notebooklm npx notebooklm-mcp@latest. Per Codex: codex mcp add notebooklm -- npx notebooklm-mcp@latest. Gemini, Cursor, VS Code – il repository ha i comandi specifici, tutti una riga.
Quick start (più veloce del quick start)
Installate il server MCP. Autenticatevi una volta sola – dite nella chat “Log me in to NotebookLM”, si apre Chrome, accedete con Google. Poi create la vostra knowledge base: andate su notebooklm.google.com, create un notebook, caricate i vostri documenti. PDF, Google Docs, markdown, siti web, repo GitHub, video YouTube.
Infine lasciate che Claude lo usi. Tipo: “Sto costruendo con [libreria]. Ecco il mio NotebookLM: [link]”.
Esempio reale: workflow n8n senza debug infiniti
Le API di n8n sono nuove – Claude allucina nomi di nodi e funzioni. La soluzione? Scaricate la documentazione completa di n8n, caricatela su NotebookLM, dite a Claude: “Costruiscimi un filtro spam per Gmail. Usa questo NotebookLM: [link]”.
La conversazione AI-to-AI diventa qualcosa del genere:
- Claude chiede: “Come funziona l’integrazione Gmail in n8n?”
- NotebookLM risponde: “Usa Gmail Trigger con polling, o Gmail node con Get Many…”
- Claude chiede: “Come decodificare il corpo email in base64?”
- NotebookLM risponde: “Il corpo è base64url encoded in payload.parts, usa Function node…”
- Claude consegna: “Ecco il tuo workflow JSON completo…”
Risultato: workflow perfetto al primo tentativo. Nessun debug di API allucinatorie. Nessuna iterazione infinita cercando di capire perché quel metodo non esiste.
Funzionalità che fanno la differenza
Zero allucinazioni – NotebookLM rifiuta di rispondere se le informazioni non sono nei vostri documenti. Ricerca autonoma – Claude fa follow-up automaticamente, costruendo comprensione completa prima di programmare.
Gestione libreria intelligente: salvate link NotebookLM con tag e descrizioni. Claude seleziona automaticamente il notebook giusto per il contesto. Condivisione cross-tool: configurate una volta, usate ovunque (Claude Code, Codex, Cursor).
Deep cleanup tool: scansiona l’intero sistema per dati NotebookLM con anteprima categorizzata. Utile quando decidete di fare pulizia.
Profili di tool: caricate solo quello che serve
Minimal: 5 tool, solo query (ask_question, get_health, list_notebooks, select_notebook, get_notebook). Standard: 10 tool, aggiunge gestione libreria. Full: 16 tool, tutti inclusi cleanup e operazioni avanzate.
Configurate con: npx notebooklm-mcp config set profile minimal (o standard, o full).
Alternative: Claude Code Skill nativo
Disponibile anche come Claude Code Skill nativo con setup più semplice. MCP Server (questo repo): sessioni persistenti, funziona con Claude Code, Codex, Cursor e altri client MCP. Claude Code Skill: setup più semplice, Python-based, query stateless, funziona solo con Claude Code locale.
Scegliete in base al vostro workflow. Se usate solo Claude Code locale e volete semplicità, la skill è ottima. Se volete flessibilità cross-tool, MCP server è la strada.
Statistiche GitHub (per chi ama i numeri)
809 stelle su GitHub. 107 fork. Ultima release v1.2.1 del 27 dicembre 2025. Licenza MIT. TypeScript 94.5%, JavaScript 5.5%. Su PulseMCP è classificato numero 150 nel ranking globale di utilizzo tra i server MCP.
Note sulla sicurezza (leggete questa parte)
Il tool automatizza le interazioni browser con NotebookLM. Include funzionalità di “umanizzazione” – velocità di digitazione realistica, ritardi naturali, movimenti del mouse. Chrome gira in locale, le credenziali non lasciano mai la vostra macchina.
Consigliato usare un account Google dedicato per l’automazione. Non quello che usate per tutto il resto, ma uno specifico per questo tipo di attività. Buona prassi generale quando automatizzate qualsiasi servizio.
Quando ha senso usarlo
Se state costruendo con librerie nuove dove Claude tende ad allucinare. Se avete documentazione interna che volete interrogare senza consumare milioni di token. Se state facendo pair programming con un agente e volete che abbia accesso al contesto completo senza rileggere tutto ogni volta.
Se invece la vostra documentazione è già ben strutturata per embedding e avete già un sistema RAG che funziona, forse questo aggiunge complessità senza benefici. Valutate in base al vostro caso specifico.
L’intelligenza artificiale che interroga altra intelligenza artificiale per costruire codice accurato. Benvenuti nel 2025, dove il problema non è più “può l’AI scrivere codice?” ma “come facciamo a farle smettere di inventarsi cose?”.
