AS_07_2019

Ottobre 2019 Automazione e Strumentazione INDAGINE approfondimenti 42 Per questo motivo i supercomputer dotati di pochi processori molto veloci sono ormai limitati alle applicazioni che non sono parallelizzabili. L’uso combinato di elevate risorse di calcolo e ampia capacità di memoria ha permesso di ana- lizzare l’evoluzione temporale di sistemi fisici per lunghi periodi di tempo e di accelerare la diffusione dei supercalcolatori nel campo delle simulazioni numeriche in svariate aree scien- tifiche, come la biologia, la genomica, la chi- mica, la fisica, l’ingegneria. Nonostante questi significativi sviluppi, i super- calcolatori non possono essere impiegati in tutti gli scenari. Alternative come le griglie computa- zionali e le architetture Cloud sono piattaforme di calcolo distribuito estremamente efficaci per l’elaborazione di grandi moli di dati o per l’ese- cuzione di algoritmi di calcolo complessi. High Performance Computing Negli ultimi anni, dagli ambienti di simulazione e modellazione (Matlab, Simulink) alla robo- tica mobile, dai controllori di moto ai sistemi di visione, si sono moltiplicati gli esempi di pro- dotti, prototipi, piattaforme basati su sistemi a core multipli che operano in parallelo, supercom- puter, cluster e cloud di macchine virtuali. Più in generale un’attenzione più ampia si sta concentrando sull’High Performance Computing (HPC) e sulle ricadute in ambito Intel- ligenza Artificiale (AI)/Deep Learning, Cognitive Computing, IoT e Industria 4.0 con applicazioni che coinvolgono guida autonoma, classificazione automatica dei dati, sistemi di management e di gestione dell’energia, solo per fare alcuni esempi. Probabilmente il principale fattore abi- litante che ha spinto l’HPC e l’AI agli attuali livelli è la capacità computazio- nale . Attualmente la potenza di calcolo dei sistemi è in grado di supportare la sca- labilità delle soluzioni AI che necessitano di elevatissime capacità di elaborazione dei dati, contrariamente ai primi esperimenti sulle reti neurali che incontrarono scarsa fortuna per la mancanza di infrastrutture hardware adeguate. Il secondo fattore di crescita va identificato nei Big Data . L’enorme mole di dati è destinata a crescere indefinitamente con fenomeni quali la digitalizza- zione, l’IoT e le Smart Machine. I Big Data non si prestano ad analisi di tipo tradizionale, come quella effettuata attraverso i database relazionali. Richiedono piuttosto l’analisi attraverso software massicciamente parallelo in esecuzione in modo distribuito. Nasce quindi l’esigenza di definire nuove tecniche, metodologie e strumenti. Vanno sotto il nome di Big Data Analytics i processi di raccolta, organizzazione e analisi di grandi set di dati eterogenei e in rapido cambiamento al fine di scoprire pattern, correlazioni e convertire questo grande insieme di dati in informazioni utili. Questa esigenza fu intercettata da Google che a metà degli anni 2000 introdusse l’architettura MapReduce , un framework pensato per fornire un modello di elaborazione parallela e imple- mentazione distribuita per processare grandi quantità di dati. Il successo di MapReduce fornì l’ispirazione per nuove soluzioni come il pro- getto open source di Apache, Hadoop , ad oggi lo strumento più diffuso per i Big Data Analytics. Attualmente la strada maestra per implementare soluzioni di Big Data Analytics è l’uso di architetture parallele e distribuite in cui i dati vengono disposti su più unità di ela- borazione. Il calcolo parallelo processa i dati molto più velo- cemente, consentendo una maggiore rapidità di conseguimento dei risultati. Modello HPC e Big Data (Nielsen) Summit (OLCF-4) il supercomputer di IBM più potente del mondo

RkJQdWJsaXNoZXIy MTg0NzE=