Economia
Prevedere il ‘Big One’: i Supercomputer ora simulano i terremoti con una precisione mai vista prima
Grazie a supercomputer potentissimi, gli scienziati possono ora simulare un sisma dall’inizio alla fine, prevedendo l’impatto su edifici e infrastrutture. Una nuova ricerca svela come la geologia locale possa rendere più pericolosi anche i terremoti di magnitudo inferiore, cambiando per sempre la gestione del rischio.
Sfruttando la potenza dei supercomputer, un team di scienziati è ora in grado di prevedere come si svilupperà un terremoto e l’entità dei danni che potrebbe causare, trasformando radicalmente la gestione del rischio sismico. Il progetto è guidato da David McCallen, ricercatore scientifico di spicco, in collaborazione con i team dei laboratori nazionali Lawrence Berkeley e Oak Ridge.
Il gruppo sta sviluppando le simulazioni più innovative e avanzate mai realizzate per studiare la dinamica dei terremoti. Queste simulazioni hanno già fornito nuove, preziose informazioni su come le condizioni geologiche locali influenzino l’intensità di un sisma e il suo impatto sulle infrastrutture e sugli edifici.
“Il nostro obiettivo è modellare i terremoti dall’inizio alla fine e tracciare le onde sismiche mentre si propagano attraverso la Terra”, ha dichiarato McCallen.
“Vogliamo capire come queste onde interagiscono con gli edifici e le infrastrutture energetiche critiche per valutarne la vulnerabilità, in modo da essere il più preparati possibile prima che colpisca il prossimo grande terremoto”, ha continuato.
La Nascita di EQSIM
In passato, le simulazioni sismiche tradizionali si basavano su dati approssimativi per studiare i movimenti del suolo, principalmente a causa della mancanza di potenza di calcolo necessaria per creare modelli ad alta fedeltà di terremoti in luoghi specifici.
Con il lancio del progetto di ricerca Exascale Computing Project (ECP), McCallen e il suo team hanno sviluppato EQSIM (Earthquake Simulation Coder), un codice di simulazione rivoluzionario.
EQSIM mostra come le onde sismiche interagiscono con suoli, montagne e valli, amplificando o smorzando l’energia del terremoto. Queste simulazioni rivelano come edifici e infrastrutture critiche (come le reti idriche ed elettriche) possano reagire o cedere durante un sisma.
Scoperte sorprendenti
Una delle rivelazioni più scioccanti emerse dal progetto è che, in alcuni casi, terremoti di magnitudo inferiore possono causare più danni di quelli più grandi. Secondo McCallen, tutto dipende dalle condizioni geologiche sottostanti.
Per capire perché ciò accade, è essenziale comprendere come si verifica il movimento del suolo, ovvero l’intenso scuotimento durante il sisma. Questo è definito da tre fattori geologici chiave: il tipo di faglia, la composizione del suolo e la topografia della superficie.
Attualmente, EQSIM viene utilizzato per modellare l’attività sismica in tre principali zone di faglia degli Stati Uniti: l’area della Baia di San Francisco, il bacino di Los Angeles e la regione di New Madrid nel Midwest orientale. Questa attività è fondamentale per comprendere come i terremoti si comportano in contesti geologici diversi.
Con l’aiuto di Frontier: una potenza di calcolo inimmaginabile
Il team EQSIM in California utilizza il celebre supercomputer Frontier, situato a Oak Ridge, nel Tennessee, per le sue simulazioni. Frontier è una macchina da record, in grado di fornire due exaflop al secondo — circa 1000 volte più veloce dei precedenti sistemi su scala peta — ed è alimentato da GPU AMD.
I suoi modelli si estendono per centinaia di chilometri e utilizzano fino a 500 miliardi di punti griglia per catturare la geologia e le infrastrutture con un dettaglio sbalorditivo.
“L’incredibile potenza di calcolo alla base delle simulazioni ci permette di vedere i ‘punti caldi’ delle onde sismiche e dove l’energia viene diretta attraverso i diversi strati di roccia e suolo”, ha spiegato McCallen. “Possiamo vedere chiaramente come e dove le onde possono accumularsi e come questi movimenti del suolo si traducono in rischio e danni agli edifici. E vediamo che sono estremamente diversi in ogni luogo”.
Decodificare i risultati
Ogni simulazione copre circa 90 secondi di tempo fisico e genera circa 3 petabyte di dati in output. Per dare un’idea della scala, si tratta di una quantità di dati simile a circa 750.000 film in alta definizione o 1.500 miliardi di pagine di testo.
“Il vantaggio più grande di queste simulazioni è che non dobbiamo aspettare che il prossimo ‘Big One’ colpisca per capire quale sarà il suo impatto. Se qualcuno ha bisogno di informazioni su un terremoto di magnitudo 7.5 in queste aree critiche, possiamo fornirgli i dati completi che stiamo generando”, ha concluso McCallen.
Questa ricerca è supportata dall’Ufficio per la Cybersicurezza, la Sicurezza Energetica e la Risposta alle Emergenze del Dipartimento dell’Energia degli Stati Uniti, che guida gli sforzi per salvaguardare e rafforzare la resilienza delle infrastrutture energetiche statunitensi contro ogni tipo di pericolo.
You must be logged in to post a comment Login