Seguici su

Attualità

Il Pentagono crea una Task Force per studiare l’uso della AI

Pubblicato

il

Il Dipartimento della Difesa ha creato una nuova task force per capire meglio come gli strumenti di intelligenza artificiale generativa (AI) e i modelli linguistici di grandi dimensioni, possano sostenere i suoi sforzi di innovazione, pur essendo utilizzati in modo responsabile, ha annunciato oggi il Dipartimento.

“L’istituzione della Task Force Lima sottolinea l’impegno incrollabile del Dipartimento della Difesa nel guidare l’innovazione dell’IA”, ha dichiarato il vice segretario Kathleen Hicks in un comunicato. “Mentre navighiamo nel potere trasformativo dell’IA generativa, la nostra attenzione rimane ferma sulla garanzia della sicurezza nazionale, sulla minimizzazione dei rischi e sull’integrazione responsabile di queste tecnologie. Il futuro della difesa non consiste solo nell’adottare tecnologie all’avanguardia, ma nel farlo con lungimiranza, responsabilità e una profonda comprensione delle implicazioni più ampie per la nostra nazione”.

La Task Force Lima sarà guidata dal Chief Digital and AI Office (CDAO) del Pentagono e “valuterà, sincronizzerà e impiegherà le capacità di IA generativa in tutto il Dipartimento della Difesa, assicurando che il Dipartimento rimanga all’avanguardia nelle tecnologie di punta e salvaguardando al contempo la sicurezza nazionale”, si legge in un annuncio del Dipartimento.

Pur non essendo una tecnologia nuova, la popolarità dell’IA generativa è salita alle stelle negli ultimi mesi nello spazio tecnologico grazie alla sua accessibilità con strumenti come ChatGPT. La tecnologia viene addestrata su enormi serie di dati e può generare audio, testo, immagini e altri tipi di contenuti. Ora il Dipartimento della Difesa sta studiando come l’intelligenza artificiale generativa possa essere utilizzata per la raccolta di informazioni e per i futuri combattimenti.

Ma se da un lato questa tecnologia può offrire nuove opportunità al Dipartimento, dall’altro deve anche considerare i rischi a cui può esporsi. Nel memorandum  che annuncia la Task Force Lima, si legge che il dipartimento intende utilizzare la tecnologia in modo responsabile e che la task force formulerà raccomandazioni politiche su come farlo.

Il CDAO lavorerà a fianco degli uffici dei sottosegretari alla Difesa per la politica, la ricerca e l’ingegneria, l’acquisizione e il sostentamento, l’intelligence e la sicurezza e del Chief Information Office del Dipartimento della Difesa, tutti uffici che hanno ruoli specificamente assegnati alla task force.

“Il Dipartimento della Difesa ha l’imperativo di perseguire responsabilmente l’adozione di modelli generativi di IA, identificando al contempo misure di protezione adeguate e mitigando i rischi per la sicurezza nazionale che possono derivare da questioni come la cattiva gestione dei dati di addestramento”, ha dichiarato il CDAO Craig Martell nell’annuncio. “Dobbiamo anche considerare la misura in cui i nostri avversari impiegheranno questa tecnologia e cercheranno di disturbare il nostro uso di soluzioni basate sull’IA”.

Come l’IA generativa potrebbe funzionare per il Dipartimento della Difesa

Secondo il memorandum, le lezioni apprese dalla task force informeranno il Consiglio di lavoro sull’IA responsabile del Dipartimento della Difesa. Il documento delinea inoltre gli obiettivi specifici e i risultati attesi dalla task force con le relative tempistiche. Ad esempio, entro il secondo trimestre dell’anno fiscale 2024, la Task Force Lima dovrebbe fornire una valutazione e una raccomandazione sui modelli linguistici di grandi dimensioni e sui casi d’uso dell’IA generativa, seguita da un piano di governance e supervisione entro il trimestre successivo dell’anno fiscale.

A maggio, Martell ha messo in guardia dagli aspetti negativi dell’IA generativa, affermando che potrebbe diventare lo strumento perfetto per la disinformazione. “Sì, sono spaventato a morte. Questa è la mia opinione”, ha detto alla conferenza AFCEA TechNet Cyber di Baltimora.

Tuttavia, il Pentagono è intenzionato a trovare il modo migliore per utilizzare la tecnologia. Ad aprile, Maynard Holliday, vice responsabile tecnologico del Dipartimento della Difesa per le tecnologie critiche, ha dichiarato in un’intervista a Breaking Defense che il dipartimento ospiterà una conferenza, la prima nel suo genere, sull'”IA affidabile e l’autonomia” che, in parte, esaminerà i pericoli e il potenziale dell’IA generativa.

La DARPA e la Casa Bianca lanciano una sfida da 20 milioni di dollari su AI e cybersicurezza

L’amministrazione Biden ha anche presentato un nuovo ordine esecutivo che prende di mira gli investimenti statunitensi nelle tecnologie cinesi di AI, quantistica e microelettronica.

Nel frattempo, i servizi militari stessi hanno già iniziato a esplorare come l’IA generativa possa aiutarli in futuro. A giugno, il Segretario dell’Aeronautica Frank Kendall ha annunciato di aver chiesto al comitato scientifico consultivo del servizio di studiare i potenziali impatti di questa tecnologia.

“Ho chiesto al mio comitato scientifico consultivo di fare due cose con l’IA. Una è stata quella di dare un’occhiata alle tecnologie di IA generativa come ChatGPT e di pensare alle loro applicazioni militari, mettendo insieme un piccolo team per farlo abbastanza rapidamente”, ha detto Kendall. “Ma anche di mettere insieme un gruppo più permanente, focalizzato sull’IA, che si occuperà della raccolta di tecnologie IA, tra virgolette, e ci aiuterà a comprenderle e a capire come introdurle il più rapidamente possibile”.


Telegram
Grazie al nostro canale Telegram potete rimanere aggiornati sulla pubblicazione di nuovi articoli di Scenari Economici.

⇒ Iscrivetevi subito


E tu cosa ne pensi?

You must be logged in to post a comment Login

Lascia un commento