L’annuncio che ha scosso la Silicon Valley
27 febbraio 2026. Sam Altman posta su X l’annuncio che molti non si aspettavano: OpenAI ha raggiunto un accordo col Pentagono per il deploy di sistemi AI avanzati in ambienti classificati. Poche ore dopo, il CEO ammette candidamente che il deal è stato “rushed” e che “the optics don’t look good”. Tradotto: lo sappiamo che la tempistica puzza, ma c’erano motivi.
Il contesto rende tutto più chiaro, o forse più torbido. Lo stesso giorno, il Segretario della Difesa Pete Hegseth aveva appena designato Anthropic come “Supply-Chain Risk to National Security”, e il presidente Trump aveva ordinato alle agenzie federali di smettere di usare i modelli di Anthropic. Periodo di transizione? Sei mesi. OpenAI firma. Anthropic finisce nel mirino. Coincidenze? Giudicate voi.
Le tre linee rosse che (teoricamente) non si possono attraversare
OpenAI si difende dichiarando che il loro accordo ha più salvaguardie di qualsiasi precedente contratto per deployment AI classificati, incluso quello di Anthropic. Tre le “red lines” non negoziabili:
- Niente sorveglianza domestica di massa con tecnologia OpenAI
- Niente sistemi d’arma autonomi controllati da modelli OpenAI
- Niente decisioni automatizzate ad alto rischio tipo “social credit” alla cinese
Bello sulla carta. Ma il critico Mike Masnick di Techdirt ha già fatto notare che il contratto fa riferimento all’Executive Order 12333, che di fatto permetterebbe la sorveglianza domestica. OpenAI ribatte che no, hanno protezioni contrattuali specifiche. Anthropic intanto ha annunciato che porterà la designazione come “supply chain risk” in tribunale.
Deployment solo cloud e personale OpenAI nel loop
L’architettura prevista è cloud-only. Niente edge devices dove un domani qualcuno potrebbe ficcare il modello dentro un drone killer. OpenAI mantiene il controllo dello stack di sicurezza, gira i suoi classifier per verificare che le linee rosse non vengano attraversate, e tiene ingegneri cleared sul campo insieme a ricercatori di safety e alignment.
Il linguaggio contrattuale specifica che il Department of War può usare il sistema AI per “tutti gli scopi leciti, coerenti con la legge applicabile”. Che è un modo elegante per dire: potete farci quello che volete, purché sia tecnicamente legale secondo le normative attuali. E qui sta il punto: cosa succede se cambiano le normative? OpenAI dice che il contratto fa riferimento esplicito alle leggi e policy come esistono oggi, quindi anche se domani il governo cambia idea, l’uso dei sistemi deve restare allineato agli standard attuali.
Il caso delle armi autonome
La DoD Directive 3000.09 del 25 gennaio 2023 impone che qualsiasi uso di AI in sistemi autonomi o semi-autonomi deve passare per verifiche, validazioni e testing rigorosi prima del deployment. Il contratto specifica che l’AI System non verrà usato per dirigere indipendentemente armi autonome in casi dove legge, regolamenti o policy del Dipartimento richiedono controllo umano.
Il deployment cloud-only dovrebbe impedire fisicamente l’uso per armi completamente autonome, visto che servirebbe edge deployment. Ma la parola chiave è “dovrebbe”. Perché se un giorno qualcuno decide di trasferire il modello su hardware locale…
Perché OpenAI ha firmato (e Anthropic no)
OpenAI giustifica la mossa con due argomenti. Primo: l’esercito americano ha bisogno di AI forte, specialmente considerando che potenziali avversari stanno integrando sempre più tecnologie AI nei loro sistemi. Secondo: volevano de-escalare la tensione tra Pentagono e lab AI. Come parte dell’accordo, OpenAI ha chiesto che gli stessi termini venissero resi disponibili a tutti i laboratori AI, e specificamente che il governo provasse a risolvere la situazione con Anthropic.
Ma perché Anthropic non è riuscita a chiudere un deal mentre OpenAI sì? OpenAI sostiene che il loro contratto offre garanzie migliori e salvaguardie più responsabili rispetto ad accordi precedenti, incluso il contratto originale di Anthropic. Le linee rosse sarebbero più applicabili perché il deployment è limitato al cloud, lo stack di sicurezza funziona come OpenAI ritiene sia meglio, e il personale cleared OpenAI resta nel loop.
La posizione su Anthropic come “supply chain risk”
OpenAI ha dichiarato esplicitamente al governo che no, non pensano che Anthropic debba essere designata come rischio per la supply chain. Il che non ha impedito al governo di farlo comunque. E OpenAI di firmare il giorno stesso.
Le conseguenze nel mondo reale
L’effetto collaterale più clamoroso? Claude di Anthropic ha superato ChatGPT di OpenAI nell’App Store di Apple sabato 1 marzo 2026. Il sentiment negativo degli utenti verso la mossa di OpenAI si è tradotto in azione concreta: la gente ha scaricato l’app del concorrente per protesta.
TechCrunch riporta che durante un all-hands meeting nel pomeriggio del 27 febbraio, Altman aveva anticipato l’accordo ai dipendenti. Il CEO ha ammesso che sapevano che la percezione sarebbe stata pessima, ma che ritenevano necessario procedere comunque per evitare un’escalation ulteriore tra governo e industria AI.
Le domande che restano aperte
Cosa succede se il governo viola i termini del contratto? OpenAI dice che potrebbero terminarlo, come con qualsiasi contratto. Ma davvero pensano che rescinderebbero un accordo col Pentagono se qualcuno oltrepassasse una linea rossa? E cosa succede in caso di pressioni politiche per “reinterpretare” cosa significhi sorveglianza domestica o arma autonoma?
Il contratto specifica che OpenAI non deve deployare modelli senza safety stack. Ma chi definisce cosa conta come “safety stack adeguato”? E se il governo decide che per motivi di sicurezza nazionale servono modelli senza guardrail?
Il futuro della collaborazione governo-AI labs
OpenAI sostiene che un buon futuro richiede collaborazione profonda tra sforzi AI e processo democratico. Che questa tecnologia introdurrà nuovi rischi nel mondo, e che vogliono che le persone che difendono gli Stati Uniti abbiano gli strumenti migliori. Un argomento comprensibile, sulla carta.
Ma la tempistica dell’accordo, il contesto politico, la designazione di Anthropic come rischio, e l’ammissione che l’accordo è stato affrettato sollevano domande su quanto questa collaborazione sia guidata da principi etici versus da pressioni politiche ed economiche. Il fatto che altri lab AI abbiano ridotto o rimosso i loro safety guardrail affidandosi principalmente a usage policy come salvaguardie primarie in deployment per sicurezza nazionale suggerisce che la pressione per compromessi è reale.
Quello che possiamo imparare su AI e potere
Questo accordo mette in luce tensioni fondamentali nello sviluppo di AI avanzata. Da una parte, i modelli più potenti hanno applicazioni militari evidenti, e sarebbe ingenuo pensare che i governi non li vogliano. Dall’altra, le salvaguardie che impediscono usi problematici di queste tecnologie dipendono da contratti, policy aziendali, e buona fede di tutte le parti coinvolte.
La struttura cloud-only, il personale nel loop, i classifier per verificare violazioni – sono tutte misure tecniche ragionevoli. Ma dipendono dal presupposto che tutte le parti vogliano rispettare le linee rosse. E la storia suggerisce che quando sicurezza nazionale e vincoli etici entrano in conflitto, i vincoli etici tendono a perdere.
Il mercato ha già espresso il suo giudizio con la migrazione di utenti verso Claude. Resta da vedere se questo accordo rappresenta davvero un framework responsabile per deployment militare di AI, o se è l’inizio di una normalizzazione di compromessi che col tempo eroderanno le salvaguardie che OpenAI oggi dichiara non negoziabili.
