Ok, questa è grossa. Anthropic ha appena confermato – dopo un leak imbarazzante – che sta testando un nuovo modello AI chiamato Claude Mythos. E quando dico “nuovo”, intendo tipo salto generazionale vero.
Il leak più goffo dell’anno
Immaginate la scena: qualcuno da Anthropic dimentica una bozza di blog post in un data lake pubblico. Non nascosto, non protetto – proprio lì, accessibile a chiunque sapesse dove guardare. Roy Paz di LayerX Security e Alexandre Pauwels di Cambridge l’hanno trovato, insieme a circa 3.000 altri asset che non avrebbero dovuto vedere la luce. Roba da “chi ha lasciato la porta aperta?”
Anthropic l’ha buttata sull’errore umano nella configurazione del CMS. Che tradotto significa: qualcuno ha clickato la checkbox sbagliata e boom – draft pubblico.
Mythos aka Capybara: quando Opus non basta più
Allora, piccolo casino terminologico qui. Il modello si chiama sia Mythos che Capybara – sembra che Capybara sia il nome della nuova tier, mentre Mythos è il modello specifico. Fino ad ora Anthropic aveva tre taglie: Haiku (piccolo e veloce), Sonnet (medio), Opus (il top). Capybara? Sta sopra Opus. Più grosso, più capace, più costoso.
Nel draft dicevano “by far the most powerful AI model we’ve ever developed”. Che per Anthropic – gente non proprio nota per l’hype facile – è una dichiarazione notevole.
La parte che fa paura
Ecco dove diventa interessante. Anthropic è genuinamente preoccupata per questo modello. Nel documento trapelato dicono che Mythos è “currently far ahead of any other AI model in cyber capabilities”. Tradotto: questo aggeggio può trovare vulnerabilità nel codice in modi che fanno sembrare i modelli precedenti giocattoli.
Il problema? Se può aiutare i difensori a trovare bug, può anche aiutare gli hacker a sfruttarli. E Anthropic sa che una volta che Mythos è là fuori, arriva “an impending wave of AI-driven exploits” – ondata di exploit guidati da AI.
Per questo il rollout è ultra-cauto: solo early access per “cyber defenders”, per dargli un vantaggio prima che arrivino i cattivi.
Precedenti inquietanti
Non è paranoia. Anthropic ha già beccato gruppi hacker cinesi sponsorizzati dallo stato che usavano Claude Code per infiltrare circa 30 organizzazioni – tech companies, banche, agenzie governative. Ci hanno messo 10 giorni per capire la portata dell’operazione, bannare gli account e avvisare le vittime.
Quando OpenAI ha rilasciato GPT-5.3-Codex a febbraio, è stato il primo modello classificato “high capability” per cybersecurity nel loro Preparedness Framework. Anthropic con Opus 4.6 ha fatto lo stesso. Mythos sembra essere un ulteriore salto avanti.
Il retreat esclusivo dei CEO
Bonus dal leak: Anthropic sta organizzando un ritiro per CEO europei in un manor del 18° secolo convertito in hotel-spa nella campagna inglese. “Intimate gathering” per “thoughtful conversation” – aka vendere Claude ai big player europei.
Ci sarà Dario Amodei in persona, più “Europe’s most influential business leaders” (nomi non specificati). Due giorni di panel con policymakers e demo di “unreleased Claude capabilities”. Che ora sappiamo essere probabilmente Mythos.
Cosa significa tutto questo
Guarda, il fatto che Anthropic sia così esplicita sui rischi è… raro. Di solito le aziende AI minimizzano o parlano vagamente di “responsible deployment”. Qui invece dicono apertamente: questo modello può essere usato per attacchi cyber su scala mai vista prima.
Il rollout super-controllato non è marketing – è genuina precauzione. Stanno letteralmente cercando di dare ai difensori un vantaggio temporale prima che il modello diventi accessibile a tutti.
La domanda vera: se Mythos è così avanti, cosa stanno costruendo OpenAI, Google e gli altri? Perché se c’è una cosa che abbiamo imparato dalla corsa agli armamenti AI, è che nessuno vuole restare indietro.
Stay tuned. Qualcosa mi dice che sentiremo ancora parlare di Mythos – nel bene e nel male.
