AS_07_2019

Automazione e Strumentazione Ottobre 2019 INDAGINE approfondimenti 41 ottenuto quando i dati vengono distribuiti ed elaborati contemporaneamente da più proces- sori; Instruction Level Parallelism, ottenuto quando le istruzioni vengono distribuite ed ese- guite contemporaneamente da più processori; Thread Level Parallelism , ottenuto quando le applicazioni utilizzano thread/ processi concor- renti cioè eseguiti in parallelo da più processori. Nel campo delle architetture di calcolo parallelo riveste un ruolo importante il Grid Compu- ting che comporta l’uso e la condivisione della potenza di elaborazione di una serie di compu- ter multiprocessore, tipicamente server, colle- gati in rete ovvero di cluster, ‘grappolo’ di com- puter ravvicinati e interconnessi che svolgono task in parallelo e in tempi ridotti. La maggio- ranza delle ‘killer application’ in ambiente Grid per sistemi di calcolo parallelo e distribuito è attualmente rappresentata dalle soluzioni di vir- tual prototyping e simulazione numerica. Supercalcolatori Le applicazioni più note del calcolo parallelo sono i supercalcolatori (detti anche supercom- puter o superelaboratori). Si tratta di sistemi di elaborazione ad elevatissime prestazioni e capacità di calcolo. Dalla metà degli anni 70 alla fine degli anni 80 il settore del supercalcolo era dominato dalla Cray Research , con soluzioni innovative come il raffreddamento a liquido o delle strutture a torre ultracompatte dove alloggiare le schede con le unità di calcolo. A partire dagli anni 90 i supercomputer divennero macchine massicciamente parallele dotate di un numero sempre crescente di processori elemen- tari . Esempio eclatante fu il Blue Gene/L che a metà degli anni 2.000 con i suoi 212.992 proces- sori divenne la macchina più potente del mondo. Nel 2018 nell’Oak Ridge National Laboratory fu realizzato il supercomputer OLCF-4 o Sum- mit con una velocità di calcolo di 200 peta- FLOPS (10 15 FLoating point Operations Per Second, numero di operazioni in virgola mobile eseguite in un secondo dalla CPU). Attualmente è il primo supercomputer a superare la barriera dell’ exascale (un miliardo di miliardi di opera- zioni al secondo) in Deep Learning. Lo sviluppo di questi sistemi è ormai svolto in pezzi unici dei big player dell’informatica come IBM o HP per via degli elevati costi di realizzazione. Va però riscontrato che un paral- lelismo di calcolo simile è sfruttato anche nei moderni computer commerciali con le cosid- dette tecnologie multicore . Del resto il parallelismo sempre più massiccio dei supercomputer e in generale delle macchine nate per garantire elevate capacità di calcolo ha stimolato molte ricerche in campo software per esplicitare il parallelismo intrinseco nelle operazioni e nei programmi. Va anche considerato che molti problemi ana- lizzati dai supercomputer sono parallelizzabili in modo da accedere raramente alla memo- ria principale , concentrando quindi la mag- gior parte degli accessi in una zona di memoria vicina al processore. Questo permette di non sovraccaricare la rete in un sistema a cluster. Tassonomia di Flynn

RkJQdWJsaXNoZXIy MTg0NzE=