Anthropic Vince Ingiunzione contro Trump

Il 26 marzo 2026, la giudice federale Rita F. Lin ha bloccato l’amministrazione Trump dal bannare Anthropic dalle reti governative. L’ingiunzione preliminare — un documento di 43 pagine definito “spesso caustico” — impedisce al governo di implementare la direttiva presidenziale che aveva designato l’azienda come “rischio per la catena di approvvigionamento” e ordinato a tutte le agenzie federali di smettere di usare Claude.

Come siamo arrivati qui

Luglio 2025: il Dipartimento della Difesa assegna ad Anthropic un contratto da 200 milioni di dollari. Claude diventa il primo modello AI di frontiera sulle reti classificate militari. Tutto procede normalmente.

Settembre 2025: iniziano i negoziati per il dispiegamento su GenAI.mil. Il DOD vuole accesso illimitato ai modelli per “tutti gli scopi legali”. Anthropic dice ok, ma con due eccezioni non negoziabili:

  • Nessun uso per armi autonome letali senza supervisione umana — la posizione era che i modelli attuali non sono abbastanza affidabili per decisioni di vita o morte
  • Nessuna sorveglianza di massa sui cittadini americani — considerata violazione dei diritti fondamentali

Dario Amodei, CEO di Anthropic, ha dichiarato che queste due eccezioni “non hanno influenzato neanche una singola missione governativa fino ad oggi.”

Le trattative si arenano.

L’escalation di febbraio 2026

24 febbraio: Pete Hegseth, Segretario alla Difesa (che usa anche il titolo “Segretario della Guerra” per direttiva esecutiva), dà ad Amodei un ultimatum. Cedere entro le 17:01 del 27 febbraio o affrontare le conseguenze.

26 febbraio: Anthropic rifiuta. “Non possiamo in coscienza accettare la loro richiesta.”

27 febbraio: Trump ordina via Truth Social a tutte le agenzie federali di “CESSARE IMMEDIATAMENTE l’uso della tecnologia di Anthropic”, definendo l’azienda una “RADICAL LEFT WOKE COMPANY”. Lo stesso giorno, Hegseth designa formalmente Anthropic come supply chain risk.

Aspettate, cosa? Anthropic è la prima azienda americana a ricevere pubblicamente questa designazione. Storicamente era riservata ad avversari stranieri tipo Huawei. La designazione obbligava i contractor della Difesa — Amazon, Microsoft, Palantir — a certificare di non usare Claude nei rapporti col Pentagono.

La causa e l’udienza del 24 marzo

9 marzo 2026: Anthropic deposita causa in California, contestando le azioni su tre basi:

  • Primo Emendamento: la designazione è ritorsione per le posizioni pubbliche dell’azienda sull’etica dell’AI
  • Quinto Emendamento: sanzioni economiche severe senza previa notifica o possibilità di contestazione
  • Administrative Procedure Act: azione arbitraria e contraria alla legge

All’udienza del 24 marzo, la giudice Lin mostra forte scetticismo verso la posizione governativa: “Se la preoccupazione riguarda l’integrità della catena di comando operativa, il Dipartimento potrebbe semplicemente smettere di usare Claude.”

La sentenza del 26 marzo

Dalla penna della giudice Lin:

“Punire Anthropic per aver portato all’attenzione pubblica la posizione contrattuale del governo è una classica ritorsione illegale ai sensi del Primo Emendamento.”

“Nulla nel relativo statuto supporta la nozione orwelliana che un’azienda americana possa essere etichettata come potenziale avversaria e sabotatrice degli Stati Uniti per aver espresso disaccordo con il governo.”

La giudice ha rilevato che la designazione “sembra progettata per punire Anthropic” e l’ha definita “probabilmente sia contraria alla legge sia arbitraria e capricciosa.”

La legge sul supply chain risk è concepita per contrastare sabotaggio covert da parte di attori stranieri — non per coprire dibattiti di policy tra agenzie governative e aziende americane che esprimono pubblicamente il proprio disaccordo.

Dettagli interessanti emersi

Dichiarazione tecnica sotto giuramento: Thiyagu Ramasamy, Head of Public Sector di Anthropic, ha dichiarato che — una volta che Claude è dispiegato in un sistema governativo air-gapped operato da un contractor terzo — Anthropic non ha alcun accesso remoto al modello. Nessun kill switch, nessuna backdoor, nessun meccanismo per aggiornamenti non autorizzati.

Email contraddittoria: Il 4 marzo 2026 — giorno dopo la formalizzazione della designazione — il Sottosegretario Emil Michael manda email ad Amodei dicendo che le due parti erano “molto vicine” su armi autonome e sorveglianza. Il giorno dopo, lo stesso Michael dichiara pubblicamente su X che “non c’è nessuna negoziazione attiva” con Anthropic. Una settimana dopo dice a CNBC che non c’è “nessuna possibilità” di riprendere i colloqui.

OpenAI beneficiaria: Nell’ora successiva al ban di Trump su Anthropic, OpenAI annuncia un accordo col DOD per fornire la sua tecnologia alle reti classificate — secondo Anthropic, con le stesse salvaguardie che Anthropic aveva richiesto.

E adesso?

L’ingiunzione è provvisoria — sospesa per sette giorni per consentire al governo di presentare ricorso. La sentenza definitiva potrebbe richiedere mesi. Il caso parallelo presso la Corte d’Appello di D.C. prosegue in modo indipendente.

Anthropic — valutata 380 miliardi di dollari con 14 miliardi di ricavi, IPO pianificata per il 2026 — sta affrontando tutto questo sotto gli occhi degli investitori.

La causa potrebbe stabilire precedenti fondamentali: (a) possono le aziende AI imporre limiti d’uso al governo? (b) può la legge sul supply chain risk essere applicata ad aziende americane che esprimono pubblicamente disaccordo col governo?

Jennifer Huddleston del Cato Institute: “L’ingiunzione indica che la giudice ritiene Anthropic abbia buone probabilità di vincere nel merito. La decisione ha implicazioni più ampie di questo solo caso.”

Dichiarazione di Anthropic post-sentenza: “Siamo grati alla corte per essersi mossa rapidamente. Mentre questo caso era necessario per proteggere Anthropic, i nostri clienti e i nostri partner, il nostro obiettivo rimane lavorare produttivamente con il governo per garantire che tutti gli americani beneficino di un’AI sicura e affidabile.”

Il Pentagono non ha commentato.