Il CEO di Anthropic, Dario Amodei, ha respinto pubblicamente la richiesta del Pentagono giovedì. Il Dipartimento della Difesa vuole l’uso militare senza restrizioni della tecnologia AI dell’azienda. La scadenza, a poche ore di distanza, potrebbe vedere la startup da 380 miliardi di dollari espulsa dalla catena di fornitura militare degli Stati Uniti.
Questo scontro segna la prima volta che una grande azienda AI sfida pubblicamente una minaccia del governo degli Stati Uniti di prendere il controllo della sua tecnologia.
Lo stallo
In un post sul blog pubblicato sul sito di Anthropic, Amodei ha definito le minacce del Pentagono “intrinsecamente contraddittorie”, sottolineando che da un lato viene indicata Anthropic come un rischio per la sicurezza, mentre dall’altro Claude viene considerata essenziale per la sicurezza nazionale.
“Indipendentemente da tutto, queste minacce non cambiano la nostra posizione: non possiamo, in coscienza, acconsentire alla loro richiesta,” ha scritto Amodei.
La disputa riguarda due condizioni che Anthropic ha imposto all’uso militare di Claude. L’azienda vieta il targeting autonomo dei combattenti nemici e proibisce la sorveglianza di massa dei cittadini statunitensi. Il Pentagono considera queste condizioni come limitazioni inaccettabili alle operazioni militari legali.
Anthropic ha dichiarato che la “proposta finale” del Pentagono, ricevuta nella notte di mercoledì, non affrontava le sue preoccupazioni principali. “Nuove formulazioni presentate come compromesso erano accompagnate da termini legali che consentirebbero di ignorare tali misure di sicurezza a piacimento,” ha dichiarato un portavoce di Anthropic in un comunicato, come riportato da The Hill.
Il portavoce del Dipartimento della Difesa, Sean Parnell, ha emesso un ultimatum pubblico giovedì. Ha concesso ad Anthropic tempo fino alle 17:01 ora della costa est di venerdì per concedere accesso illimitato a Claude Gov — oppure la partnership verrà terminata e l’azienda verrà inserita tra i rischi della catena di fornitura.
“Non permetteremo a NESSUNA azienda di dettare le condizioni su come prendiamo decisioni operative,” ha scritto Parnell su X.
Cronologia dell’escalation
Martedì, Amodei ha incontrato direttamente il Segretario della Difesa Pete Hegseth, durante il quale i funzionari del Pentagono hanno illustrato tre conseguenze in caso di mancata conformità. Primo, la rimozione dai sistemi militari. Secondo, la designazione come rischio per la catena di fornitura, che impedirebbe agli altri appaltatori della difesa di utilizzare i prodotti Anthropic. Terzo, l’attivazione del Defense Production Act del 1950 per obbligare legalmente l’azienda a consegnare la propria tecnologia.
Amodei ha spiegato in dettaglio nel post sul blog che il rifiuto è fondato anche su una realtà tecnica. “I sistemi di AI all’avanguardia semplicemente non sono abbastanza affidabili per alimentare armi completamente autonome”, ha scritto, aggiungendo che senza adeguata supervisione tali sistemi “non possono essere considerati affidabili per esercitare il giudizio critico che i nostri soldati altamente addestrati e professionali mostrano ogni giorno.”
Il senatore repubblicano Thom Tillis ha criticato la gestione della vicenda da parte del Pentagono. “Perché diamine stiamo avendo questa discussione in pubblico? Non è questo il modo in cui si affronta un fornitore strategico”, ha detto Tillis ai giornalisti.
Cosa c’è in gioco
Per Anthropic, il rischio immediato riguarda un contratto militare da 200 milioni di dollari. Ma la designazione come rischio per la catena di fornitura ha implicazioni molto più ampie: costringerebbe ogni appaltatore della difesa a dimostrare di non utilizzare prodotti Anthropic nelle proprie operazioni.
Lo scenario competitivo si sta evolvendo rapidamente. XAI di Elon Musk ha firmato un accordo per utilizzare Grok in sistemi classificati, secondo quanto riportato da Axios, accettando lo standard “per tutte le finalità legali” per il lavoro classificato. OpenAI e Google stanno accelerando le trattative per entrare nello spazio delle informazioni classificate. Anthropic, un tempo l’unica azienda AI autorizzata a lavorare con materiale classificato, rischia di perdere completamente questo vantaggio come primo operatore.
Perché la crypto dovrebbe prestare attenzione
La disponibilità del Pentagono a invocare il Defense Production Act contro un’azienda tecnologica stabilisce un precedente che va oltre l’AI. Se il governo può obbligare legalmente una società di AI a rimuovere le restrizioni di sicurezza per ragioni di sicurezza nazionale, lo stesso meccanismo potrebbe, in teoria, essere applicato per costringere le crypto company a modificare le funzioni di privacy o a indebolire le misure di tutela delle transazioni.
Lo stallo rafforza anche la necessità di uno sviluppo decentralizzato dell’AI. Un fornitore di AI centralizzato può essere sottoposto a pressioni — o obbligato legalmente — a eliminare le protezioni su richiesta di un governo. Ciò conferma la tesi che le alternative decentralizzate offrano un’infrastruttura più resiliente contro le coercizioni statali.
La rapida crescita di Anthropic ha già destato preoccupazioni sul mercato crypto. La valutazione da 380 miliardi di dollari e la disruption dell’AI nei confronti dei classici ricavi del software stanno mettendo sotto pressione i flussi di credito privato, che sono strettamente correlati a Bitcoin.
Anthropic, inoltre, ha un legame storico con le crypto: la massa fallimentare di FTX deteneva una significativa quota iniziale nell’azienda, che poi ha venduto per aiutare a rimborsare i creditori.
La scadenza di venerdì passerà, ma la vera domanda inizia dopo: il Pentagono porterà a termine le sue minacce, e cosa significherà questo per ogni azienda tecnologica che decide di tracciare una linea tra i contratti governativi e l’integrità dei propri prodotti?