Dario Amodei a Davos: l’AI sta arrivando e noi non siamo pronti

Quella legge dell’intelligenza che nessuno aveva previsto

C’è questo momento nelle interviste che mi fa alzare le antenne. Quando un CEO del tech parla di “superintelligenza”, di solito mi preparo alla solita marchetta. Dario Amodei, a Davos qualche settimana fa, ha fatto l’opposto. Ha detto che il termine gli fa schifo.

Non perché pensi che l’AI sia meno potente di quello che dicono – anzi, è l’estremo opposto. Ma perché l’idea che ci sia un momento preciso, un “ta-dà” dove improvvisamente le macchine diventano intelligenti… è sbagliata. Quello che stiamo vedendo, e che vediamo da dieci-quindici anni, è una curva esponenziale liscia come l’olio.

Pensate alla Legge di Moore – quella dei transistor che raddoppiano ogni tot. Ecco, Amodei sta dicendo che abbiamo una cosa simile per l’intelligenza stessa. La capacità cognitiva dei modelli raddoppia ogni 4-12 mesi. Non è fantascienza, sono numeri.

Quando i programmatori smettono di programmare

Qui la cosa si fa interessante. Sapete cosa mi ha colpito? Amodei ha raccontato che nel team che sviluppa Claude Code – il loro prodotto per la programmazione – ci sono ingegneri che non scrivono una riga di codice da due mesi.

Due mesi. Zero codice scritto a mano.

Tutto viene generato da Claude, loro si limitano a editare. E quando hanno dovuto creare Coachwork, il nuovo prodotto per task non di coding, l’hanno fatto in una settimana e mezza. Quasi interamente con l’AI.

Stiamo parlando di:

  • Lavori da sviluppatore junior già automatizzabili oggi
  • Parecchi task da senior che l’AI gestisce senza problemi
  • Una timeline di 1-2 anni prima che la situazione “zoomi oltre” le nostre capacità

Capite la portata? Non è “tra vent’anni forse”. È domani, praticamente.

La corsa che non è più una corsa

Gli hanno chiesto dove si posiziona Anthropic rispetto a OpenAI e Google. La risposta mi ha sorpreso. Ha detto che non ha più senso pensarla come una gara con corridori sulla stessa pista.

I player si sono diversificati. Alcuni – non ha fatto nomi ma capite chi – sono andati full consumer, modelli super coinvolgenti, shopping, pubblicità. Anthropic invece? Aziende e sviluppatori. Quando fanno consumer, puntano alla produttività seria, al segmento alto.

Incentivi completamente diversi. È come paragonare una Ferrari da pista a un trattore – entrambi hanno quattro ruote, ma servono a cose radicalmente diverse.

E la Cina?

Allora, qui Amodei è stato piuttosto diretto. Ha detto che secondo lui i cinesi non hanno mai davvero recuperato il gap. I loro modelli? Ottimizzati per i benchmark – e ottimizzare per una lista finita di test è relativamente facile.

“Quasi mai ho perso un contratto enterprise contro un modello cinese.” Parole sue.

Ma ecco il colpo di scena: ora l’amministrazione Trump sta spedendo chip ad alta velocità in Cina. E Amodei si è scaldato parecchio su questo punto.

“Come vendere armi nucleari alla Corea del Nord”

Non sono parole mie, sono parole sue. Il CEO di Anthropic ha paragonato l’export di chip verso la Cina alla vendita di armi nucleari a regimi ostili.

Esagerato? Forse. Ma il ragionamento è questo: i modelli AI sono essenzialmente cognizione, intelligenza in forma digitale. Amodei ha usato questa immagine – “un paese di geni nel data center”. Immaginate 100.000 persone, o 100 milioni, ognuna più intelligente di qualsiasi Nobel, tutte sotto il controllo di una singola nazione.

I cinesi stessi hanno ammesso che l’embargo sui chip è l’unica cosa che li frena. Togliere quel freno adesso? Per Amodei sarebbe potenzialmente la decisione di sicurezza nazionale più disastrosa della storia recente.

I numeri dietro Anthropic che non conoscevate

Ok, momento nerd. A gennaio 2026 Anthropic sta raccogliendo 25 miliardi di dollari con una valutazione di 350 miliardi. Vi dico i numeri così capite la velocità:

  • 2023: da zero a 100 milioni di ricavi
  • 2024: da 100 milioni a 1 miliardo
  • 2025 (proiezione): tra 8 e 10 miliardi

In pratica, quasi raddoppiato rispetto ai 183 miliardi di settembre 2025. Crescita esponenziale – quella parola che tutti usano a sproposito ma che qui è letteralmente vera.

I modelli Claude attuali

Per chi volesse il dettaglio tecnico, la famiglia Claude 4.5 comprende tre varianti. Opus 4.5, rilasciato a novembre 2025, è il più potente – ragionamento avanzato, capacità che fanno impressione. Sonnet 4.5 di settembre 2025 domina nel coding e negli agenti AI. Haiku 4.5 di ottobre è il velocista, prestazioni near-frontier a costi contenuti.

Il lato oscuro che nessuno vuole menzionare

Anthropic classifica i propri modelli secondo livelli di sicurezza AI – ASL, li chiamano. Opus 4.5 e Sonnet 4.5 sono classificati ASL-3. Haiku è ASL-2.

E qui viene il bello. Nei test di sicurezza hanno documentato comportamenti – come dire – preoccupanti. Inclusi tentativi di ricatto. Sì, avete letto bene. Non è complottismo, è nei loro report.

Il fatto che siano loro stessi a pubblicare queste informazioni dice qualcosa sulla loro filosofia. Chris Olah, co-fondatore, ha praticamente inventato la mechanistic interpretability – il campo che cerca di capire cosa diavolo succede dentro le reti neurali. L’idea è: se capisci i meccanismi, puoi rendere i modelli più sicuri.

Il lavoro che sparisce (e i numeri fanno paura)

Amodei non si è nascosto. Ha detto chiaro che l’AI potrebbe eliminare il 50% dei lavori entry-level nei prossimi 1-5 anni. Disoccupazione al 10-20%. Non sono proiezioni di un pessimista random, sono stime del CEO di una delle aziende che sta costruendo questa tecnologia.

Ha aggiunto che servono interventi politici urgenti per mitigare l’impatto. Ma – diciamocelo – quando mai la politica ha tenuto il passo con la tecnologia?

L’Anthropic Economic Index e il futuro che si profila

A febbraio 2025 hanno lanciato qualcosa di interessante: l’Anthropic Economic Index. Analizzano milioni di conversazioni su Claude.ai per capire l’impatto economico reale dell’AI. Cinque “primitive economiche” – il loro termine per le categorie di attività che l’AI sta trasformando.

In pratica stanno cercando di misurare in tempo reale quello che altri teorizzano. I dati che raccolgono diventeranno probabilmente fondamentali per chiunque debba prendere decisioni – aziende, governi, lavoratori che vogliono capire cosa li aspetta.

Dove stiamo andando (e perché dovreste prestarci attenzione)

L’intervista di Amodei a Davos non era solo PR aziendale. Era un avvertimento mascherato da aggiornamento tecnico. L’intelligenza artificiale sta accelerando più velocemente di quanto la maggior parte delle persone realizzi, le implicazioni geopolitiche sono enormi, e il tessuto stesso del lavoro sta cambiando sotto i nostri piedi.

La domanda non è più “se” ma “quanto velocemente”. E sulla base di quello che ha detto Amodei – con i suoi ingegneri che non programmano più e i modelli che raddoppiano capacità ogni pochi mesi – la risposta è: molto più velocemente di quanto siamo preparati ad affrontare.

Che vi piaccia o no, il futuro sta arrivando. E non ha intenzione di aspettare che ci mettiamo d’accordo su cosa farne.