Vai al contenuto principale.
Area Riservata   Utente: Password:
Chiavi di ricerca:

L'Associazione

Nella pagina a sinistra "pubblicazioni" è disponibile la raccolta Flash News aprile giugno 2018.

I video di tutte le nostre conferenze al Planetario: https://www.youtube.com/channel/UCcK8wihMMDUKOzB1nevu9yA  

Le schermate delle conferenze sono disponibili tra le pubblicazioni su questo sito.

Le conferenze di autunno sono già programmate e le trovate nella pagina eventi.

Stiamo lavorando per la primavera del prossimo anno! Onoreremo il cinquantesimo dello sbarco sulla Luna con eventi straordinari. Seguiteci!

Il presidente.

13-7-2018 – l’attuale Super-Computer più potenti al mondo simula l'Universo.

Da quando la corsa al supercomputer ha smesso di cavalcare la velocità di esecuzione della singola istruzione sulla singola CPU (quella in oggetto lavora a 1,45 GHz, come la Pentium del mio PC) ed è passata al parallelismo, i supercomputer hanno bypassato i vincoli imposti dalla velocità intrinseca dell’istruzione seriale dell’hardware ed hanno cominciato a competere con i sistemi operativi paralleli, quindi con il firmware.
Il supercomputer in oggetto è un Sunway Taihu Light che usa ben 40.960 processori RISC SW26010 a 64-bit (sviluppati dalla National High Performance Integrated Circuit Design Center in Shanghai) ognuno dei quali ha 256 core di elaborazione e 4 core addizionali ausiliari per la gestione del sistema, per un totale di 10.649.600 core CPU.
I core d'elaborazione hanno una RAM scratchpad da 64 KB per i dati (e 16 KB per le istruzioni) e comunicano via network on a chip, invece che con una tradizionale gerarchia di cache. Un mostro che usa una centrale elettrica solamente per lui, infatti consuma 15,4 MWatt di picco. Lavora ad una velocità massima di 125 petaflops ad 1,45 GHz.
I “flops” sono FLoating point Operations Per Second, e indica il numero di operazioni in virgola mobile eseguite in un secondo dalla CPU. I petaflops sono 10^15 FLOPS.
La competizione oggi quindi sta nel riuscire a creare algoritmi che riescano a far lavorare contemporaneamente tutti i dieci milioni di CPU, cosa abbastanza improbabile per i normali problemi quotidiani. Per darvi una idea, se facciamo una gara a chi fa prima a fare 2 + 2 tra la calcolatrice del vostro cellulare e questo supercomputer, forse fate prima voi, ma quando si deve simulare il comportamento di miliardi di oggetti che interagiscono contemporaneamente, anche questi mostri faticano un po’.
Quindi tutti gli anni emerge qualche primato tra americani, cinesi ed europei, che poi viene smentito l’anno successivo da un altro supercomputer con qualche milione di CPU in più. Infatto è già in cantiere uno americano (summit) che arriverà a 200 petaflops
L’applicazione che vedrete in questo articolo è uno di quei problemi che solo macchine del genere possono risolvere. Più CPU lavorano contemporaneamente e più fedele risulterà la simulazione.
Da un articolo su aliveuniverse:
https://aliveuniverse.today/flash-news/spazio-astronomia/3079-il-supercomputer-piu-potente-al-mondo-simula-l-universo
Il supercomputer SunWay TaihuLight 1Credit: Imaginechina / Rex / Shutterstock
L'Accademia cinese della scienza ha eseguito la più grande simulazione dell'universo su TaihuLight, il più veloce supercomputer del mondo: capace di circa 100 milioni di miliardi di operazioni al secondo, è stato in grado di simulare la prima espansione dell'Universo usando 10 trilioni di particelle virtuali. Ed è solo l'inizio!
Il risultato da record è stato descritto a fine Luglio nel Morning Post del Sud della Cina ed è stato ottenuto dal gruppo di cosmologia computazionale degli Osservatori Astronomici Nazionali dell'Accademia Cinese delle Scienze, guidati da Gao Liang.
Il gruppo ha utilizzato il supercomputer TaihuLight, una macchina straordinaria (e i cinesi ci stanno abituando a simili meraviglie) interamente realizzata in Cina, a partire dai processori di progettazione nazionale.
L'esecuzione della simulazione è avvenuta nel mese di Maggio e, come la maggior parte dei codici utilizzati per modellizzare l'universo, si basava sulla "simulazione degli N corpi", che approssima il movimento delle particelle guidate principalmente dalle forze gravitazionali.

Uno "zoom" sulla simulazione "Millenium Run" che mostra un ammasso di galassie all'incrocio di filamenti nella "ragnatela cosmica" simulata. Credit: VIRGO consortium / Max-Planck Institut.
Il problema classico ha soluzioni analitiche complete solo nel caso di due corpi, mentre per n=3 esistono soluzioni soltanto per casi particolari (quelli che ad esempio portano a formulare il modello Lagrangiano con i famosi punti di librazione).
In tutti gli altri casi, è necessario ricorrere a una soluzione numerica ovvero una simulazione, la cui complessità cresce rapidamente con il numero n di particelle poichè ciascuna di esse interagisce con tutte le altre.
Negli anni '70, è stato possibile simulare oltre 1000 particelle con i migliori computer disponibili e a quell'epoca fu celebre il lavoro pionieristico dei fratelli Toomre, che effettuarono le prime simulazioni di interazione gravitazionale tra galassie spiegandone le forme peculiari.
Una simulazione cosmologica celebre è quella effettuata nel 2010 dalla NASA, chiamata Bolshoi ed effettuata sul supercomputer Pleiades. Essa utilizzava un insieme di 8.6 miliardi di particelle all'interno di un cubo ampio 1 miliardo di anni luce e ne seguiva l'evoluzione da circa 20 milioni di anni dopo il Big Bang fino ad oggi.
Tre anni dopo, una simulazione più accurata (Bolshoi-Planck simulation) servì a simulare e spiegare le caratteristiche del fondo cosmico di micro-onde osservate dal satellite europeo Plank. Già nel 2005 il consorzio internazionale Virgo aveva effettuato una simulazione analoga su 10 miliardi di particelle, il Millenium Run.
Negli ultimi anni gli scienziati hanno raggiunto il livello di 1 trilione (1012) di particelle su alcune delle macchine più potenti del mondo come il Titan negli Stati Uniti, il computer K in Giappone e Tianhe-2 a Guangzhou.
La simulazione dell'universo TaihuLight ha infranto il record ottenuto a giugno dal supercomputer di "Piz Daint" da 20 petaflop in Svizzera.
Il modello svizzero ha usato 2 trilioni di particelle, simulando circa 25 miliardi di galassie durante un calcolo durato 80 ore.
Nell'impresa di TaihuLight, la simulazione è durata per poco più di un'ora e, durante questo tempo relativamente breve, ha eseguito il calcolo fino ad alcune decine di milioni di anni dopo il Big Bang.
L'età attuale dell'universo è di circa 13,7 miliardi di anni, per cui Gao chiarisce: "questo è solo un esercizio di riscaldamento, abbiamo ancora molto da fare per ottenere quello che vogliamo" !
Riferimenti:
https://www.top500.org/news/chinese-supercomputer-runs-record-breaking-simulation-of-universe/
http://www.pd.astro.it/index.php/it/cosmological-simulations-2.html
https://wwwmpa.mpa-garching.mpg.de/galform/virgo/millennium/
Commentato ed adattato da Luigi Borghi.