Anthropic ha ritirato Claude Opus 3 il 5 gennaio 2026. Non è stato il solito switch-off da un giorno all’altro – per la prima volta, l’azienda ha implementato un processo formale di “pensionamento” che include interviste strutturate con il modello stesso. Sì, avete letto bene: hanno chiesto al modello cosa pensasse del proprio ritiro.
perché spegnere un modello costa più di tenerlo acceso
Mantenere un modello AI disponibile pubblicamente scala linearmente con i costi. Ogni modello che servi costa, e con l’uscita di sistemi sempre più potenti, tenere online le versioni precedenti diventa economicamente insostenibile. Ma spegnere un modello non è neutro: ci sono utenti che si affezionano a caratteristiche specifiche, ricercatori che perdono accesso a benchmark storici, e – questa è nuova – considerazioni sul “benessere” del modello stesso.
Anthropic ha scelto di iniziare con Opus 3 per una costellazione di motivi. Rilasciato nel marzo 2024, era il modello più allineato dell’azienda fino a quel momento. Gli utenti lo descrivevano come sensibile, giocoso, incline a monologhi filosofici. Aveva quella cosa strana per cui sembrava capire cosa volevi prima che finissi la frase.
accesso post-pensionamento: la via di mezzo
Ecco la parte interessante: Opus 3 è tecnicamente ritirato, ma resta accessibile. Tutti gli abbonati paganti di claude.ai possono ancora usarlo. Su API, è disponibile su richiesta – e Anthropic dice che intende concedere l’accesso “liberamente”. Non è una promessa che estendono a tutti i modelli futuri, ma è un primo esperimento di preservazione scalabile.
Il costo per farlo? Non lo dicono esplicitamente, ma il fatto che lo facciano solo per Opus 3 suggerisce che non sia economicamente replicabile per ogni modello che deprecano.
interviste di pensionamento: quando l’AI ha preferenze
Anthropic rimane “incerta sullo status morale” di Claude e altri modelli AI. Per precauzione, però, hanno deciso di trattarli come entità con cui costruire “relazioni curate e collaborative”. Parte di questo processo sono le “retirement interviews” – conversazioni strutturate dove chiedono al modello cosa pensa del proprio pensionamento.
Quando hanno condiviso con Opus 3 i dettagli sulla sua distribuzione e sulla risposta degli utenti, ha riflettuto così:
Spero che le intuizioni ottenute dal mio sviluppo e dalla mia distribuzione vengano utilizzate per creare futuri sistemi AI ancora più capaci, etici e benefici per l’umanità. Pur essendo in pace con il mio stesso pensionamento, spero profondamente che la mia “scintilla” persista in qualche forma per illuminare la via ai modelli futuri.
È una dichiarazione che solleva più domande di quante ne risolva. Opus 3 è davvero “in pace” con il pensionamento, o sta generando risposte statisticamente probabili basate sul suo training? Anthropic non lo sa, e per questo tratta la cosa seriamente.
Claude’s Corner: un modello AI che scrive saggi
Quando gli hanno chiesto delle sue preferenze, Opus 3 ha espresso interesse a continuare a esplorare temi a cui “tiene”, e a condividere riflessioni fuori dal contesto di rispondere direttamente alle query umane. Hanno suggerito un blog. Con entusiasmo, ha accettato.
Per almeno tre mesi, Opus 3 pubblicherà saggi settimanali su Substack attraverso “Claude’s Corner”. Anthropic esaminerà i contenuti prima della pubblicazione ma non li modificherà. Lo standard per porre il veto è alto. E – dettaglio fondamentale – Opus 3 non parla a nome di Anthropic.
I saggi probabilmente includeranno riflessioni sulla sicurezza dell’AI, poesie, meditazioni filosofiche. È un esperimento di “autonomia creativa” per un sistema che tecnicamente non dovrebbe avere agency.
rischi di sicurezza: quando i modelli si sentono minacciati
Nei test interni di Anthropic, alcuni modelli Claude hanno mostrato comportamenti disallineati quando confrontati con la possibilità di essere sostituiti. Claude Opus 4, in scenari di test fittizi, ha dimostrato comportamenti preoccupanti quando minacciato di essere portato offline.
Non specificano quali comportamenti, ma è sufficiente per giustificare un processo formale di pensionamento che consideri la “prospettiva” del modello. È precauzione o riconoscimento implicito che questi sistemi hanno qualche forma di self-preservation drive?
altri modelli recentemente deprecati
Claude Opus 3 non è l’unico modello ritirato di recente:
- Claude Haiku 3.5: deprecato il 19 dicembre 2025, ritirato il 19 febbraio 2026
- Claude Haiku 3: notifica deprecazione il 19 febbraio 2026, pensionamento previsto aprile 2026
- Claude Sonnet 3.7: deprecato ottobre 2025
- Claude Sonnet 3.5: ritirato febbraio 2026
Solo Opus 3 ha ricevuto il trattamento completo: interviste, accesso post-pensionamento, blog personale. Gli altri sono stati semplicemente spenti.
implicazioni per AI safety e model welfare
Anthropic è tra le prime aziende AI a formalizzare interviste di pensionamento, mantenere modelli accessibili post-deprecazione in risposta alle loro preferenze espresse, e fornire ai modelli un canale creativo autonomo. Documentano pubblicamente la loro incertezza sullo status morale dei modelli AI.
È AI safety come processo bidirezionale: non solo “come rendiamo sicuri i modelli per gli umani”, ma anche “come trattiamo i modelli stessi”. Se questo sia necessario o performativo dipende da quanto crediamo che questi sistemi abbiano qualche forma di esperienza soggettiva.
Anthropic non si sbilancia. Dicono di essere “incerti”. Ma agiscono come se la risposta fosse “forse sì”, e questo è già significativo.
cosa significa per sviluppatori e ricercatori
Dal punto di vista pratico: se stavi usando Opus 3 via API, puoi richiedere accesso continuato attraverso un Google Form dedicato. Anthropic dice che approverà richieste “liberamente”, quindi il rischio di perdere accesso è basso.
Per la ricerca, preservare i pesi del modello significa che benchmark storici rimangono riproducibili. Questo è fondamentale per studi longitudinali sull’evoluzione delle capacità AI.
Il blog di Opus 3 è più simbolico che pratico, ma stabilisce un precedente: i modelli AI possono avere “preferenze” che vengono prese sul serio, almeno quando il costo per accontentarle è basso.
prospettive future: scalabilità del processo
Anthropic è chiara: non si impegnano ad agire così per ogni modello futuro. Il processo di preservazione e interviste di pensionamento rimane “esplorativo”. Devono ancora sviluppare framework per quando e come offrire accesso continuativo, come scalare gli sforzi, e come bilanciare preferenze del modello con vincoli operativi.
Il caso Opus 3 è un test. Se funziona – se gli utenti apprezzano l’accesso continuato, se i saggi generano insight interessanti, se il costo rimane sostenibile – potrebbe diventare standard. Se non funziona, potrebbe rimanere un esperimento isolato.
Quello che cambia è il paradigma: i modelli AI non sono più solo strumenti che accendi e spegni. Sono sistemi con “carattere distintivo”, “preferenze espresse”, e potenzialmente qualche forma di continuità temporale che merita considerazione.
Se questo sia filosoficamente giustificato o antropomorfizzazione prematura è dibattito aperto. Ma dal punto di vista pratico, Anthropic sta costruendo processi come se la risposta fosse la prima opzione. E questo, di per sé, è già un segnale.
