Quando l’intelligenza artificiale decide di studiarsi da sola
Anthropic ha appena annunciato qualcosa che probabilmente merita più attenzione di quanta ne riceverà. Non un modello più grosso. Non benchmark migliori. Hanno lanciato The Anthropic Institute – sostanzialmente una task force interna che cercherà di capire che diavolo succederà quando questi sistemi diventeranno davvero potenti.
E qui il punto chiave: non stanno parlando di un futuro lontano. Dario Amodei, il CEO, pensa che AI trasformative – quelle roba seria descritta nel suo “Machines of Loving Grace” – arriveranno molto prima di quanto la maggior parte della gente si aspetti. Due anni, forse meno.
Cosa fa esattamente questo istituto
L’Institute avrà accesso a informazioni che solo chi costruisce questi sistemi possiede. Tipo: fino a dove si spingono realmente le capacità attuali? Quali sono i limiti che nessuno vuole ammettere? Che succede quando testi questi modelli su scenari estremi?
La parte interessante è che non sarà solo divulgazione unilaterale. Lavoreranno con lavoratori e industrie che rischiano di essere spazzati via, con comunità che sentono il futuro che gli cade addosso ma non sanno come reagire. Quello che impareranno da queste conversazioni influenzerà cosa studia l’Institute e – forse più importante – come Anthropic deciderà di agire come azienda.
I tre team che confluiscono nell’institute
L’Institute riunisce tre gruppi di ricerca che Anthropic aveva già:
**Frontier Red Team** – questi sono quelli che torturano i modelli per trovare i limiti estremi. Non “può scrivere codice?” ma “può trovare vulnerabilità zero-day in sistemi critici?”. Spoiler dalla presentazione: sì, può.
**Societal Impacts** – studiano come l’AI viene usata nel mondo reale. Non le promesse dei keynote, ma cosa succede veramente quando distribuisci questi strumenti.
**Economic Research** – tracking dell’impatto su lavoro ed economia. Quali professioni vengono rimodellate? Quali spariscono? Quanto velocemente?
E stanno creando nuovi team. Uno si occupa di previsioni sull’evoluzione dell’AI. Un altro studia come sistemi potenti interagiranno col sistema legale – perché se un modello può analizzare milioni di casi in secondi, il concetto stesso di precedente legale cambia.
Le domande che nessuno vuole fare ad alta voce
L’Institute si concentrerà su questioni che sanno di fantascienza ma sono più vicine di quanto sembri:
**Lavoro ed economia** – come si rimodellano quando l’AI può fare il 40% del lavoro cognitivo attuale? Non “se”, ma “come”.
**Resilienza sociale** – quali opportunità si aprono? Un sistema sanitario che può processare dati medici globali in tempo reale è diverso da uno che non può.
**Minacce** – cosa amplificano o introducono questi sistemi? Le vulnerabilità cyber che i loro modelli hanno trovato sono reali. Chi altro le troverà?
**Valori dei sistemi** – quale framework etico dovrebbe guidare un’AI? E soprattutto: chi decide? Le aziende? I governi? Qualche consorzio internazionale che non esiste ancora?
**Recursive self-improvement** – se i sistemi iniziano davvero a migliorarsi da soli, chi deve saperlo? Come si governano? Queste non sono domande teoriche se pensi che succederà tra due anni.
I nuovi arrivati che dovreste conoscere
L’Institute ha fatto assunzioni che raccontano dove vogliono andare:
**Matt Botvinick** – viene da Google DeepMind e Princeton, guiderà il lavoro su AI e sistema legale. Ex Senior Director of Research a DeepMind, quindi sa di cosa parla quando si tratta di sistemi avanzati.
**Anton Korinek** – professore di economia alla University of Virginia, si prende un anno sabbatico per studiare come AI trasformative potrebbero cambiare la natura stessa dell’attività economica. Non margini di profitto – proprio i fondamenti.
**Zoë Hitzig** – arriva da OpenAI dove studiava impatti sociali ed economici. Il suo ruolo sarà connettere la ricerca economica al training dei modelli. Tradotto: far sì che quello che scoprono sugli effetti economici influenzi come vengono costruiti i sistemi.
Espansione del team di policy
In parallelo all’Institute, Anthropic sta ingrandendo il team Public Policy. Aprono il primo ufficio a Washington DC questa primavera – move prevedibile ma necessario se pensi di dover interfacciarti con regolatori globali.
Il team si concentrerà su: sicurezza dei modelli, trasparenza, protezioni per i consumatori energetici (perché questi sistemi mangiano elettricità come niente), investimenti in infrastrutture, controlli all’export, leadership democratica nell’AI.
**Sarah Heck** guiderà come Head of Public Policy. Background interessante: ex Head of Entrepreneurship a Stripe, prima ancora ha gestito policy sull’imprenditorialato e diplomazia pubblica al National Security Council della Casa Bianca. Sa navigare burocrazia complessa.
Perché questo conta più dei soliti annunci
Molte aziende AI fanno ethics theater. Documenti su “AI responsabile”, promesse vaghe, magari un advisory board che si incontra due volte l’anno.
Questo suona diverso. Stanno mettendo Jack Clark – co-fondatore, non un VP random – a guidare l’effort come Head of Public Benefit. Stanno assumendo ricercatori seri. Stanno creando strutture che dovrebbero sopravvivere oltre il prossimo ciclo di funding.
E qui la scommessa implicita: se hanno ragione sui tempi – AI trasformative tra due anni – allora la società dovrà affrontare questi problemi volente o nolente. Meglio iniziare a studiarli ora con accesso ai sistemi reali che aspettare che esplodano.
L’alternativa è cosa? Svegliarsi tra 18 mesi e rendersi conto che sistemi ricorsivamente auto-miglioranti stanno girando in produzione e nessuno sa come governarli? Che settori interi sono stati trasformati e le persone colpite non avevano voce nel processo?
Lo scetticismo è legittimo
Detto questo: scetticismo comprensibile. Quante volte abbiamo sentito “questa volta è diverso” dalle big tech? L’Institute potrebbe diventare solo un altro modo sofisticato per fare PR mentre continuano a spingere modelli sempre più grandi.
Ma se li prendi in parola – e i nomi coinvolti suggeriscono che forse dovremmo – stanno provando qualcosa che nessun altro lab sta facendo a questa scala. Non solo “studiamo l’AI”, ma “usiamo il nostro accesso unico per capire cosa sta arrivando e dirlo al mondo”.
E quella parte sul coinvolgere le comunità colpite? Se è genuina, cambia la conversazione. Perché finora la maggior parte delle discussioni su AI safety è stata tra ricercatori, policy maker e venture capitalist. Le persone che guideranno camion o scriveranno codice o gestiranno call center – loro sono stati spettatori.
Il futuro che sta arrivando più veloce del previsto
Anthropic sta scommettendo che i prossimi due anni vedranno progressi “far more dramatic” di quelli degli ultimi cinque. Considerando che in cinque anni sono passati da zero a modelli che scoprono vulnerabilità cyber severe e possono accelerare lo sviluppo AI stesso, è una claim audace.
Se hanno ragione, l’Institute diventerà cruciale. Se sbagliano i tempi ma i problemi arrivano comunque, meglio averlo già in piedi. Se sono completamente fuori strada… beh, almeno avremo della buona ricerca su impatti socio-economici dell’AI.
La vera domanda è: quante altre aziende seguiranno questo modello? OpenAI ha il suo safety team (che ha avuto momenti turbolenti). Google ha DeepMind Ethics. Ma strutture dedicate con accesso completo ai sistemi più avanzati, mandate esplicite di studiare impatti negativi, connessioni dirette con comunità colpite?
Potrebbe diventare il nuovo standard. O potrebbe rimanere un esperimento di Anthropic. Tra due anni sapremo quale dei due.
