Seguici su

Difesa

L’esercito cinese usa una AI sviluppata da Meta, e questo è un problema, ma non per i motivi che immaginate.

L’esercito cinese starebbe utilizzando un’elaborazione della AI Llama di Meta per le proprie simulazioni e preparazioni militari. Un pericolo aggiuntivo a quelli, enormi, propri delle AI

Pubblicato

il

L’esercito cinese potrebbe aver trovato una nuova arma: una versione riadattata dell’intelligenza artificiale open-source di Meta, Llama, per l’intelligence sul campo di battaglia.

Il mese scorso, la Reuters ha riferito che, secondo tre documenti accademici, i principali istituti di ricerca cinesi legati all’Esercito Popolare di Liberazione (PLA) hanno adattato il modello di intelligenza artificiale Llama di Meta per applicazioni militari.

La Reuters riporta che a giugno sei ricercatori di tre istituzioni, tra cui due dell’Accademia di Scienze Militari del PLA, hanno descritto l’uso di una prima versione di Meta Llama per creare “ChatBIT”, uno strumento di IA ottimizzato per l’intelligence e il processo decisionale militare.

Il rapporto sottolinea che, nonostante le restrizioni di Meta contro l’uso militare, la natura open-source di Llama ha permesso un adattamento non autorizzato. Meta ha condannato questo uso, sottolineando la necessità di un’innovazione aperta e riconoscendo al contempo le difficoltà nel far rispettare le politiche di utilizzo.

Secondo Reuters, il Dipartimento della Difesa degli Stati Uniti (DOD) monitora questi sviluppi nell’ambito delle più ampie preoccupazioni statunitensi sui rischi per la sicurezza dell’IA. Il rapporto rileva che questo incidente evidenzia i continui sforzi della Cina per sfruttare l’IA a fini militari e di sicurezza interna, nonostante le restrizioni internazionali e le considerazioni etiche.

Il rapporto afferma che la ricerca evidenzia la sfida di impedire l’uso non autorizzato di modelli di IA open-source, riflettendo la più ampia competizione geopolitica nella tecnologia dell’IA.

Per quanto riguarda il modo in cui i modelli linguistici di grandi dimensioni (LLM) possono rivoluzionare l’intelligence militare, il primo responsabile tecnologico della Central Intelligence Agency (CIA) degli Stati Uniti, Nand Mulchandani, ha dichiarato in un’intervista rilasciata all’Associated Press (AP) nel maggio 2024 che i sistemi di IA generativi possono stimolare il pensiero fuori dagli schemi, ma non sono precisi e possono essere parziali.

Mulchandani cita che la CIA utilizza un’applicazione di IA generativa chiamata Osiris per riassumere e fornire approfondimenti sulle tendenze globali, aiutando gli analisti a gestire vaste quantità di informazioni.

Tuttavia, sottolinea che nonostante le capacità dell’IA, il giudizio umano rimane fondamentale nel lavoro di intelligence, con l’IA che funge da copilota per aumentare la produttività e l’intuizione.

Afferma che la CIA deve affrontare sfide per l’integrazione dell’IA a causa della compartimentazione delle informazioni e dei vincoli legali, ma è impegnata a scalare le tecnologie dell’IA.

Inoltre, in un articolo di War on the Rocks dell’aprile 2023, Benjamin Jensen e Dan Tadross affermano che le LLM possono sintetizzare vasti set di dati per supportare i pianificatori nella visualizzazione e nella descrizione di problemi complessi.

La AI ha una grande capacità di sintesi e questo favorisce fortemente la pianificazione militare. Inoltre permette di migliorare i processi decisionali operativi, oltre che ridurre i tempi di lavoro nella pianificazione, data la capacità di cogliere le parti dell’attività preparatoria che non sono compatibili.

Però l’usa della AI ha anche degli enormi problemi quando applicati all’attività di programmazione, e non sono elementi secondari: 

  • le azioni estremamente rapide consigliate dalla AI tendono a esacerbare i conflitti. Non c’è incertezza, non c’è rimorso, e questo è un disastro, perché porta a decisioni affrettate;
  • si prediligono tattiche del “Primo colpo” di provocazione strategica, e questo aumenta il numero ei conflitti;
  • quindi abbiamo un problema di “Allucinazioni”, di creare realtà fittizzie;
  • inoltre nelle simulazioni la Ai a avuto talvolta la propensione all’escalation militare.

Per questi motivi gli esperti consigliano si l’uso della AI, ma sempre sotto controllo umano, ricordando che è sempre meglio essere un po’ più lenti, che causare un olocausto nucleare. 


Telegram
Grazie al nostro canale Telegram potete rimanere aggiornati sulla pubblicazione di nuovi articoli di Scenari Economici.

⇒ Iscrivetevi subito


E tu cosa ne pensi?

You must be logged in to post a comment Login

Lascia un commento