Seguici su

DifesaScienzaUSA

Non è ancora Skynet, ma l’Intelligenza Artificiale ha appena umiliato gli umani nella pianificazione militare

L’AI umilia l’uomo in guerra: nell’esperimento USA gli algoritmi battono i militari 97 a 48. Velocità doppia e zero errori: ecco come l’Intelligenza Artificiale sta rivoluzionando la pianificazione militare, lasciando gli ufficiali umani a rincorrere.

Pubblicato

il

Dimenticate per un attimo la fantascienza apocalittica. La realtà, emersa dall’ultimo esperimento della US Air Force, è molto più pragmatica e, se vogliamo, inquietante per la sua efficienza: in uno scenario di guerra complesso, gli algoritmi non solo hanno fatto meglio degli ufficiali in carne ed ossa, ma lo hanno fatto in una frazione del tempo e con una precisione chirurgica.

Non siamo ancora arrivati a Skynet, il sistema senziente di “Terminator”, ma i risultati dell’ultimo esperimento “DASH” (Decision Advantage Sprint for Human-Machine Teaming) condotto lo scorso autunno dall’aeronautica militare statunitense lasciano poco spazio alle interpretazioni. La Air Force ha messo l’una contro l’altra mezza dozzina di strumenti di intelligenza artificiale, forniti da aziende civili, e squadre di personale militare proveniente da Stati Uniti, Canada e Regno Unito.

L’obiettivo? Risolvere ipotetici problemi di “gestione della battaglia”. Non si trattava solo di compiti standard, come pianificare un attacco aereo o reindirizzare velivoli da una base danneggiata, ma anche di scenari oscuri e complessi, come la raccolta di intelligence su segnali elettromagnetici anomali o la protezione di una nave della Marina alla deriva.

Il verdetto dei dati: velocità e precisione

Quando la Air Force ha valutato i Corsi d’Azione (COA) proposti, il risultato è stato netto. Almeno uno degli algoritmi di intelligenza artificiale non solo ha generato più opzioni in meno tempo rispetto agli esseri umani, ma ha commesso meno errori.

I numeri, riportati dal Colonnello John Ohlund, direttore del team interfunzionale dell’Advanced Battle Management System (ABMS), sono impietosi per la controparte biologica:

  • Velocità: Le raccomandazioni generate dalla macchina sono state fino al 90% più veloci rispetto ai metodi tradizionali.
  • Validità: Le migliori soluzioni della classe macchina hanno mostrato una viabilità e validità tattica del 97%.
  • Performance Umana: I corsi d’azione generati dagli umani hanno richiesto circa 19 minuti, con solo il 48% delle opzioni considerate valide.

Ohlund ha sottolineato un altro dato fondamentale, specialmente alla luce delle recenti preoccupazioni sulle AI generative commerciali: “Il nostro team non ha osservato allucinazioni durante l’esperimento”. Un contrasto netto rispetto ad altri test recenti o ai timori diffusi che l’AI possa inventare dati di sana pianta in contesti critici.

La tabella del confronto

Per visualizzare meglio il divario emerso durante l’esperimento DASH-3, ecco un riepilogo delle performance:

MetricaIntelligenza Artificiale (Miglior Algoritmo)Operatori Umani (Team Congiunto US/UK/CAN)
Tempo di elaborazioneIstantaneo (90% più veloce)~19 minuti
Validità Tattica97%48%
Errori (Allucinazioni)Assenti (0%)Frequenti errori di memoria/valutazione
Resistenza allo StressTotaleCompromessa dalla complessità

Perché gli umani hanno fallito?

Prima di decretare l’obsolescenza dell’ufficiale di stato maggiore, bisogna analizzare il contesto, come giustamente fa notare Breaking Defense. Lo scenario era stato deliberatamente progettato per essere un incubo logistico e cognitivo, studiato appositamente per portare gli operatori umani fuori dalla loro “zona di comfort”. Una test ai limiti dell’umano, per vedere se , invece, il computer avrebbe potuto reggere lo stress. 

I partecipanti umani si sono trovati di fronte a problemi “multi-dominio”. Il progetto ABMS, infatti, mira a creare un sistema di comando unificato per tutte le forze armate, integrando le operazioni in tutti i domini ufficialmente riconosciuti:

  • Aria
  • Terra
  • Mare
  • Spazio
  • Cyberspazio

Il problema è che il personale partecipante era addestrato principalmente per le operazioni aeree della Air Force. Un partecipante, ad esempio, era un aviere con soli due anni di addestramento e nessuna esperienza specifica nella guerra elettronica. Inoltre, mentre gli umani sono abituati a lavorare su reti di comando reali con dati classificati, l’esperimento ha utilizzato approssimazioni non classificate, cioè ha mescolato i dati, rendendo il lavoro di comprensione degli stessi più complesso.

Questo ha permesso alle aziende civili di partecipare con i loro software, ma ha aggiunto un ulteriore strato di disorientamento per i militari, abituati ad altri standard e protocolli.

Interazione uomo macchina, l’obiettivo di questo esperimento (fonte AF.mil)

“Il computer non dimentica”

Qui emerge la vera differenza strutturale. Sia gli umani che le AI hanno ricevuto lo stesso briefing pre-wargame: circa 20 pagine di documenti da leggere, che spaziavano dalle intenzioni del comandante a fogli di calcolo pieni di statistiche su missili, jammer e probabilità di successo.

Gli esseri umani, sotto pressione e con un limite di tempo di un’ora, sono stati sopraffatti dalla mole di nuove informazioni. Hanno dimenticato dettagli o ricordato male le specifiche tecniche nel momento critico. L’Intelligenza Artificiale, invece, ha agito come un archivista perfetto.“Il computer non dimentica”, ha sentenziato laconicamente Ohlund.

Inoltre, il successo dell’AI non è stato “magico”, ma frutto di un intenso lavoro di preparazione dei dati (quello che in gergo tecnico si chiama data normalization). La simulazione che ha ottenuto il 97% di validità aveva normalizzato tutti i dati, adattato ogni foglio di calcolo e tradotto tutte le narrazioni in un formato digeribile dall’algoritmo. È la vecchia regola dell’informatica: se fornisci dati puliti e verificati, ottieni risultati puliti. Questo è il segreto per evitare le famose “allucinazioni”.

Stress vs Algoritmi

L’aspetto psicologico è stato determinante. “Volevamo che gli operatori avessero un ambiente operativo realistico… Devono essere stressati”, ha spiegato Ohlund. “Tempo critico, sei sotto pressione, devi prendere una decisione adesso. Formula il tuo piano, dammi il tuo piano, vai vai vai”.

L’essere umano dà il meglio di sé in ambienti familiari, dove l’intuizione e l’esperienza pregressa possono colmare le lacune informative. Ma di fronte a un’esplosione di informazioni nuove, in un contesto sconosciuto e sotto pressione temporale, il cervello biologico vacilla. L’algoritmo, privo di emozioni e di ghiandole surrenali, macina dati imperturbabile.

Il futuro: microservizi, non Generali Robot

Cosa ci riserva il futuro? Vedremo presto un generale di silicio alla guida del Pentagono? Fortunatamente, o sfortunatamente a seconda dei punti di vista, no. Nessuno dei sei strumenti AI testati è pronto per l’uso operativo oggi, né è inteso come un sostituto autonomo dei pianificatori umani.

L’idea della Difesa USA è quella di far evolvere questi strumenti in “microservizi” che si inseriscono in un sistema di comando e controllo più ampio. Nel “Modello Trasformazionale” dell’architettura AI del team ABMS, la generazione di Corsi d’Azione (ciò che l’AI ha fatto nell’esperimento) è solo uno dei 13 passaggi necessari per sviluppare un piano eseguibile.

L’obiettivo è l’integrazione, non la sostituzione. Come ha dichiarato il tenente Ashley Nguyen, una delle partecipanti inizialmente scettiche: “L’AI non ci ha sostituito; ci ha dato un solido punto di partenza da cui costruire”.

In termini economici e organizzativi, stiamo assistendo a un classico aumento della produttività marginale del decisore umano assistito dalla macchina. L’AI sgrossa il lavoro, gestisce la complessità dei dati grezzi e fornisce opzioni statisticamente valide; l’uomo, libero dal carico cognitivo della memorizzazione dei dettagli tecnici, può concentrarsi sulla strategia e sul giudizio morale. Almeno fino al prossimo aggiornamento software.


Domande e risposte

L’Intelligenza Artificiale sostituirà i generali e i soldati nelle decisioni di guerra?

Al momento no. L’esperimento DASH-3 ha dimostrato che l’AI è eccellente nel generare opzioni tattiche basate sui dati, ma questo rappresenta solo uno dei 13 passaggi necessari per creare un piano operativo completo. L’obiettivo delle forze armate USA è utilizzare l’AI come un “microservizio” di supporto per accelerare il processo decisionale umano, non per rimuovere l’uomo dal ciclo di comando (il cosiddetto concetto di human-in-the-loop).

Perché gli operatori umani hanno avuto performance così basse rispetto all’AI?

Il divario è dovuto principalmente a due fattori: stress cognitivo e complessità dei dati. Lo scenario era progettato per mettere sotto pressione gli operatori con problemi “multi-dominio” (terra, aria, mare, cyber) non familiari e una mole enorme di documenti tecnici (20 pagine di briefing) da assimilare in poco tempo. Gli umani, sotto stress, tendono a dimenticare o confondere i dettagli, mentre l’AI mantiene una memoria perfetta e accede istantaneamente a tutte le specifiche tecniche normalizzate.

Come ha fatto l’AI a evitare le “allucinazioni” tipiche di strumenti come ChatGPT?

Il successo è dipeso dalla preparazione dei dati. L’azienda che ha ottenuto i risultati migliori non ha semplicemente “lanciato” l’AI sui documenti, ma ha effettuato un rigoroso lavoro di normalizzazione dei dati prima dell’esperimento. Hanno strutturato fogli di calcolo e narrazioni in un formato che l’algoritmo potesse elaborare senza ambiguità. Limitando l’output dell’AI a un set di dati verificato e ben strutturato, si elimina quasi totalmente il rischio che il software inventi informazioni inesistenti.

Google News Rimani aggiornato seguendoci su Google News!
SEGUICI
E tu cosa ne pensi?

You must be logged in to post a comment Login

Lascia un commento