AES_8 2022

FOCUS Approfondimenti 45 FOCUS Automazione e Strumentazione n Novembre - Dicembre 2022 alta, che richiedevano anche ampie fasi di testing. Naturalmente, costruire i supercomputer seguendo questa metodologia era molto costoso in termini di tempo e denaro, e ne limitava l’adozione sostanzial- mente in un ridotto numero di centri di ricerca. Per ovviare a tali inconvenienti, appunto verso la fine degli anni ‘90, con l’obiettivo di abbassare i costi di sviluppo e operativi, si è cominciato a realizzare supercomputer utilizzando CPU (central processing unit) e componenti commerciali COTS (commercial off-the-shelf), simili a quelli usati nei computer di uso comune, tra cui PC desktop e portatili. Questa nuova tendenza ha dato origine a sistemi oggi noti attraverso l’espressione ‘massively parallel computing’(MPC), o calcolo massicciamente parallelo. Attualmente, tutti i supercomputer di ultima generazione adottano archi- tetture massicciamente parallele, basate su processori allo stato dell’arte. Fondamentalmente, questi sistemi ad elevata capacità di calcolo si possono immaginare come una sorta di sala dati nella quale operano tanti server rack, dotati di un gran numero di processori, e interconnessi tra loro tramite linee ad alta velocità. Architetture di calcolo, SMP e MPP Il calcolo parallelo moderno utilizza sistemi di multi- processing, simili a quelli riscontrabili oggi nei com- puter di uso comune, in cui sono presenti molteplici processori. Nel multiprocessing simmetrico (sym- metric multiprocessing - SMP), i processori integrati nel sistema condividono la memoria e il bus di I/O, e sono controllati da un unico sistema operativo. Nell’architettura SMP, al crescere del numero di pro- cessori, cresce anche il tempo di trasferimento dati tra i componenti del sistema, e le prestazioni di conse- guenza calano, non rendendo più giustificabile l’ag- giunta di ulteriori processori. Questa limitazione viene in sostanza superata con l’introduzione dell’ archi- tettura MPP (massively parallel processing), in cui ciascun processore possiede la propria memoria e il proprio sistema operativo. Nell’elaborazione massic- ciamente parallela, il numero di processori può scalare verso l’alto molto di più rispetto alla tecnologia SMP, senza influenzare le performance del sistema, perché nell’architettura MPP tutti i nodi sono indipendenti, avendo memoria e sistema operativo autonomi, e sono interconnessi attraverso una rete ad alta velocità. Sistemi eterogenei per supportare diversi workload Un altro aspetto fondamentale del calcolo parallelo e massicciamente parallelo riguarda la crescente dif- fusione delle architetture di elaborazione eteroge- nee , in grado d’integrare e gestire svariate tipologie di processori, specializzati e dedicati a compiti specifici. Inoltre, le organizzazioni, come accennato, puntano a ridurre i costi, utilizzando nei data center hardware di tipo ‘commodity’, ed evitando onerosi investimenti in server specializzati, che dovrebbero altrimenti acquistare presso vari produttori del settore. Più aumentano, e diventano comuni, i carichi di lavoro ad alta intensità computazionale, tra cui le Il server Nvidia OVX, in grado di combinare otto GPU Nvidia L40 (fonte: Nvidia) Gli acceleratori hardware aiutano a incrementare le performance del software di simulazione (fonte: Ansys)

RkJQdWJsaXNoZXIy Mzg4NjYz