Seguici su

DifesaEconomiaUSA

Lo scontro tra Pentagono e Silicon Valley: Anthropic finisce nella “Blacklist” di Trump

L’amministrazione Trump inserisce Anthropic nella blacklist della sicurezza nazionale. Il rifiuto del CEO Amodei di rimuovere i limiti etici all’uso militare di Claude scatena l’ira del Pentagono: contratti revocati e sei mesi per il passaggio a nuovi partner.

Pubblicato

il

Il confine tra etica tecnologica e sicurezza nazionale non è mai stato così sottile, né così fragile. In una mossa che sta scuotendo le fondamenta di Silicon Valley, l’amministrazione Trump ha ufficialmente designato Anthropic, una delle aziende leader nel campo dell’intelligenza artificiale, come un “Rischio per la catena di approvvigionamento” (Supply-Chain Risk).

Non si tratta di una semplice divergenza commerciale, ma di una rottura ideologica e strategica profonda. La decisione, annunciata con i toni perentori tipici della nuova dirigenza di Washington, segna un precedente pesantissimo: una società americana viene trattata con lo stesso rigore normativo solitamente riservato ad avversari stranieri come la cinese Huawei. Ecco il messaggio di Trump :

La genesi del conflitto: “Efficace Altruismo” vs Sicurezza Nazionale

Al centro della contesa c’è Claude, il chatbot di punta di Anthropic, considerato dagli esperti – e dagli stessi tecnici del Pentagono – come lo strumento più avanzato e affidabile attualmente integrato nei sistemi classificati della difesa statunitense. Tuttavia, il CEO di Anthropic, Dario Amodei, ha opposto un netto rifiuto alla richiesta del Dipartimento della Difesa di rimuovere ogni “salvaguardia” (safeguard) nell’uso militare del modello.

Dario Amodei – Wikipedia

Le preoccupazioni di Anthropic riguardano l’impiego dell’IA per la sorveglianza di massa domestica e lo sviluppo di sistemi d’arma autonomi, capaci di colpire senza l’intervento umano. Una posizione figlia della filosofia del cosiddetto “altruismo efficace”, che però si è scontrata frontalmente con la visione dell’amministrazione Trump.

La posizione di Trump e Hegseth: “Niente veti dai tecnici”

Il Segretario alla Difesa, Pete Hegseth, non ha usato mezzi termini, definendo il comportamento di Anthropic come una “master class di arroganza e tradimento”. In un post su X, Hegseth ha accusato Amodei di voler esercitare un potere di veto sulle decisioni operative del Pentagono, anteponendo l’ideologia “woke” della Silicon Valley alla vita dei soldati americani.

“I Termini di Servizio del ‘difettoso altruismo’ di Anthropic non peseranno mai più della sicurezza o della prontezza delle truppe americane sul campo di battaglia”, ha dichiarato Hegseth.

Il Presidente Donald Trump, attraverso Truth Social, ha rincarato la dose ordinando a ogni singola agenzia federale di cessare immediatamente l’uso delle tecnologie di Anthropic. La linea della Casa Bianca è chiara: il Comandante in Capo e il popolo americano sono gli unici a determinare il destino delle forze armate, non dirigenti tecnologici non eletti.

Le conseguenze per Anthropic e il mercato della Difesa

Le ripercussioni per la società, valutata circa 380 miliardi di dollari, sono potenzialmente devastanti. Essere inseriti nella lista dei rischi per la sicurezza nazionale significa:

  • Risoluzione dei contratti: Il Pentagono interromperà il contratto da 200 milioni di dollari con la società.
  • Effetto domino sui partner: Qualsiasi fornitore, partner o appaltatore che faccia affari con il settore militare non potrà più utilizzare i prodotti Anthropic nei propri flussi di lavoro.
  • Esclusione federale: Il divieto si estende a tutto il governo degli Stati Uniti.

È previsto un periodo di transizione di sei mesi per permettere alle agenzie di migrare verso alternative “più patriottiche”. Tuttavia, il passaggio non sarà indolore. Claude è attualmente l’unico sistema d’IA operativo nel cloud classificato del Pentagono, utilizzato persino in operazioni ad alto rischio come la cattura di Nicolás Maduro.

Il futuro dell’IA militare: Chi prenderà il posto di Claude?

Il vuoto lasciato da Anthropic apre praterie per i concorrenti, ma solleva anche interrogativi etici all’interno delle altre Big Tech.

AziendaPosizione attualeProspettive nel settore Difesa
xAI (Elon Musk)Ha già firmato accordi per l’uso di Grok in sistemi classificati.Favorita dall’amministrazione, ma tecnicamente non ancora un rimpiazzo perfetto per Claude.
OpenAIHa promesso di mantenere linee rosse su armi autonome, ma cerca l’accordo.Sotto pressione interna: centinaia di dipendenti chiedono di seguire l’esempio di Anthropic.
Google (Gemini)Disponibile in sistemi non classificati.Colloqui accelerati per l’ingresso nel settore della sicurezza nazionale.
PalantirUtilizzava Claude per i lavori più sensibili.Dovrà ora negoziare l’integrazione di modelli alternativi per non perdere le commesse.

Una scommessa da miliardi di dollari

Mentre Amodei riceve elogi da una parte del mondo accademico e della società civile per la sua fermezza morale, il costo economico di questa scelta rischia di essere astronomico. Molte aziende che aspirano a contratti governativi potrebbero ora evitare Claude per non incorrere nelle ire del Pentagono.

Lo Stato agisce qui come “committente di ultima istanza” che modella il mercato non solo con i capitali, ma con l’autorità politica. La domanda ora è se il mercato privato riuscirà a compensare la perdita del cliente più grande del mondo o se Anthropic sarà costretta a una battaglia legale per la sopravvivenza. Intanto però xAi, recentemente fusa con SpaceX, si sta fregando le mani perché si aprono

Google News Rimani aggiornato seguendoci su Google News!
SEGUICI
E tu cosa ne pensi?

You must be logged in to post a comment Login

Lascia un commento