Anthropic ha lanciato l’auto mode per Claude Code – praticamente il tentativo di risolvere quel fastidioso problema dove vuoi delegare un task a Claude ma finisci per cliccare “approva” ogni 30 secondi come un idiota.
Il problema che nessuno ammetteva
Fino a ieri, Claude Code aveva due opzioni: modalità ultra-paranoica (approva ogni singola azione) o modalità YOLO con --dangerously-skip-permissions. La prima ti trasforma in un click-monkey, la seconda… beh, il nome dice tutto. “Dangerously” non è lì per bellezza.
Risultato? Gli sviluppatori che volevano effettivamente usare Claude per task lunghi si trovavano tra l’incudine e il martello: o babysitting continuo, o pregare che Claude non decidesse di fare rm -rf / per risolvere un bug CSS.
Come funziona (in teoria)
L’auto mode introduce un classifier che valuta ogni azione prima dell’esecuzione. Cose benigne? Passano. Roba tipo cancellazioni di massa, esfiltrazione dati o esecuzione di codice sospetto? Bloccate.
Se Claude insiste a fare qualcosa che continua a venire bloccato, alla fine ti chiede conferma. È tipo avere un assistente che sa quando ha bisogno del tuo aiuto invece di chiederlo ogni 5 minuti.
La parte onesta (che apprezzo)
Anthropic non vende questo come soluzione magica. Nel post ammettono chiaramente:
- Non elimina tutti i rischi – solo li riduce
- Il classifier può sbagliare in entrambe le direzioni (bloccare cose sicure, lasciar passare cose rischiose)
- Raccomandano ancora di usarlo in ambienti isolati
- Potrebbe aumentare leggermente latenza e costi
Questo tipo di onestà è raro. Niente “rivoluzionario”, niente “cambia le regole del gioco”. Solo “ecco cosa fa, ecco i limiti, decidete voi”.
Per chi è (e chi dovrebbe aspettare)
L’auto mode parte come research preview per utenti Team, poi arriverà su Enterprise e API nei prossimi giorni. Funziona con Sonnet 4.6 e Opus 4.6.
Gli admin possono disabilitarlo con un flag nelle impostazioni managed. Di default è disabilitato nella desktop app – devi attivarlo manualmente in Organization Settings.
Per attivarlo da CLI: claude --enable-auto-mode, poi cicli con Shift+Tab. Su Desktop e VS Code: prima attivi in Settings → Claude Code, poi selezioni dal menu a tendina.
Il vero test
La domanda interessante sarà: quanto è bravo questo classifier a distinguere intent ambiguo da azioni genuinamente pericolose? Perché il contesto conta. DELETE FROM users in un database di produzione? Disastro. Stesso comando in uno script di test setup? Routine.
Se il classifier blocca troppo, l’auto mode diventa inutile – torni a cliccare approva manualmente. Se lascia passare troppo, allora tanto vale usare --dangerously-skip-permissions e almeno essere onesti sui rischi.
Il fatto che Anthropic lo chiami “research preview” e ammetta che “continuerà a migliorare” suggerisce che anche loro sanno che questo è tentativo uno. Non la soluzione finale, ma un passo nella direzione giusta.
Verdict personale
È un compromesso intelligente tra paranoia e roulette russa. Non risolve il problema fondamentale – dare a un LLM accesso al tuo sistema è intrinsecamente rischioso – ma almeno lo rende più gestibile per task lunghi.
Lo userei? Sì, ma in container o VM dedicate. Mai direttamente sulla macchina principale. Mai su progetti in produzione. E probabilmente con un occhio comunque sul terminale, almeno finché non vedo questo classifier in azione per qualche settimana.
È il tipo di feature che o diventa indispensabile o viene disabilitata da tutti dopo il primo incidente. Staremo a vedere.
