DifesaScienzaUSA
L’Intelligenza Artificiale “obiettore di coscienza”: il cortocircuito tra Anthropic, Pentagono e i mega-contratti militari
Il Pentagono vuole l’uso illimitato dell’Intelligenza Artificiale, ma Claude di Anthropic si rifiuta di supportare operazioni militari letali. A rischio contratti milionari per la sicurezza nazionale.

Siamo nel febbraio 2026, e il rapporto tra lo Stato e i giganti tecnologici sta vivendo una fase di profonda ridefinizione. Da un lato abbiamo la spesa pubblica, classico motore keynesiano dell’innovazione tecnologica, che si manifesta attraverso ricchi contratti della Difesa; dall’altro abbiamo le aziende della Silicon Valley, dotate di un potere cognitivo senza precedenti, ma frenate da costituzioni etiche interne. Il caso di Anthropic e della sua intelligenza artificiale, Claude, è emblematico: la macchina si dichiara “obiettore di coscienza”, e l’azienda rischia di veder sfumare contratti governativi per centinaia di milioni di dollari.
Il casus belli: l’operazione Maduro e il ruolo di Palantir
Le tensioni tra il Pentagono (recentemente ribattezzato Dipartimento della Guerra sotto l’amministrazione Trump) e Anthropic hanno raggiunto il punto di ebollizione nell’ultima settimana. La miccia è stata innescata da indiscrezioni circa l’utilizzo dei sistemi di Anthropic, tramite l’appaltatore Palantir, nell’operazione che ha portato alla cattura del presidente venezuelano Nicolás Maduro.
Non è chiaro come Claude sia stato impiegato nel dettaglio, , ma la semplice ipotesi che la tecnologia potesse aver supportato un’operazione militare attiva ha sollevato forti malumori tra i dipendenti di Anthropic. L’azienda guidata da Dario Amodei è stata la prima a offrire servizi su reti classificate, ma ha sempre ribadito una linea rossa invalicabile: i suoi sistemi non possono essere utilizzati per armi letali autonome o per la sorveglianza interna.
Quando un dipendente di Anthropic ha sollevato dubbi etici con i partner di Palantir, la reazione di questi ultimi è stata di allarme. Come ha riferito un alto funzionario del Pentagono, Palantir ha percepito la richiesta come una tacita disapprovazione dell’uso del software in contesti operativi reali.
Lo scontro tra pragmatismo militare ed etica aziendale
Il Segretario alla Difesa, Pete Hegseth, ha recentemente pubblicato un documento strategico che non lascia spazio a interpretazioni: i contratti con le società di IA devono eliminare qualsiasi vincolo o “guardrail” aziendale che limiti l’uso militare. Il Dipartimento esige la libertà di sfruttare l’IA per “qualsiasi uso legale”.
Si crea così una frattura netta tra chi fornisce la tecnologia e chi la acquista, riassumibile come segue:
- Il Pentagono vuole l’uso della AI per “qualsiasi uso legale” militare.. Anthropic vuole invece un rigido controllo per evitare danni gravi o irreversibili.
- Il Pentagono vede positivamente il concetto di integrazione nelle armi. Al contrario Anthropic è totalmente contraria al supporto e creazione di armi.
- Per il Pentagono il fornitore deve supportare le trutte senza riserve etiche, in moto totale. Per Anthropic etica e immagine hanno la priorità.
La “Costituzione” di Claude e il rischio economico
Dario Amodei, CEO di Anthropic, ha dotato la sua intelligenza artificiale di una vera e propria Costituzione. Il modello cognitivo di Claude è addestrato per bloccare qualsiasi azione che possa causare danni agli esseri umani, persino se la richiesta proviene direttamente da un’agenzia statale per motivi di sicurezza nazionale.
Se si provasse a chiedere a Claude come sintetizzare un agente chimico, pur nascondendo la richiesta dietro un finto progetto di ricerca sui vaccini, l’IA rifiuterebbe l’aiuto. In un mondo ideale, questa è un’ammirevole dimostrazione di responsabilità aziendale. In un’economia reale, , ma soprattutto in un contesto geopolitico dove potenze rivali non si pongono i medesimi scrupoli morali, questa rigidità diventa un ostacolo strategico per Washington e un rischio finanziario per l’azienda.
Anthropic detiene un contratto con la Difesa del valore potenziale di 200 milioni di dollari (parte di un più ampio pacchetto da 800 milioni che coinvolge anche OpenAI e Google). Rinunciare a queste commesse significa cedere terreno ai concorrenti in un mercato, quello governativo, che è storicamente il più solido e anticiclico.
Le prospettive: chi cederà per primo?
Sean Parnell, portavoce capo del Pentagono, ha chiarito che il rapporto con Anthropic è attualmente “in fase di revisione”, sottolineando che la nazione richiede partner disposti ad aiutare le truppe a vincere “in qualsiasi scontro”. Dal canto suo, Anthropic continua a sostenere di voler armare le democrazie con l’IA, , ma di volerlo fare “con attenzione e con dei limiti”.
La realtà tecnica suggerisce che i modelli attuali di Anthropic, come fa notare l’analista Michael Horowitz, non sarebbero comunque adatti a gestire in autonomia sistemi d’arma letali, poiché tali algoritmi richiedono architetture molto più specifiche. Lo scontro, dunque, è prettamente politico e di principio.
Resta da vedere se i buoni propositi della Silicon Valley resisteranno di fronte alla prospettiva di perdere l’accesso ai fondi illimitati del bilancio della Difesa americana. La storia economica ci insegna che, quando le necessità dello Stato si scontrano con la filosofia dei fornitori privati, raramente è la filosofia ad avere l’ultima parola.







You must be logged in to post a comment Login