AS 4

Maggio 2024 n Automazione e Strumentazione Primo piano 18 MERCATI 11,4%) e dall’analisi di testi e media (CAGR 10,3%). IDC prevede anche, tra il 2021 e il 2026, una crescita dei ricavi (CAGR 11,5%) per i sistemi storage scale-out, guidata dai crescenti volumi di dati non strutturati prodotti in data center, infra- strutture edge, ambienti cloud. Lo storage scale-out è caratterizzato da un’archi- tettura NAS (network attached storage) in grado di fornire scalabilità orizzontale espandendo la capa- cità tramite l’aggiunta di ulteriori dispositivi di sto- rage (storage array), che vanno a incrementare lo spazio di archiviazione della rete. Nelle soluzioni scale-out, chiarisce IDC, il file system memorizza i dati su molteplici server connessi, ed espande le prestazioni e la capacità tramite l’aggiunta di nodi a un cluster che può estendersi su diverse regioni geografiche, includendo infrastrutture on-pre- mise e siti cloud pubblici. I sistemi NAS scale-out costituiscono un’alternativa alle soluzioni di sto- rage scale-up, che forniscono scalabilità verticale attraverso l’aggiunta di risorse al sistema fisico, ma possono creare silos tecnologici una volta rag- giunti i limiti di espansione delle unità. IDC classifica i sistemi di storage scale-out in due categorie: soluzioni con file system distribuito e con file system parallelo. Rispetto alle prime, più limitate in fatto di scalabilità, le soluzioni basate su file system parallelo possono estendersi su migliaia di nodi server e amministrare petabyte o exabyte di dati. Questi sistemi di storage richiedono tipi- camente robuste infrastrutture di networking ad elevate prestazioni, basate su standard industriali come InfiniBand. I file system paralleli, aggiunge IDC, sono proget- tati per espandere la banda e la capacità in maniera tale da gestire enormi quantità di dati, e sono quindi indicati per supportare un ampia gamma di carichi di lavoro con elevati requisiti di elaborazione, che spazia dal calcolo ad elevate prestazioni (HPC), agli strumenti analitici aziendali, ai workload di intelligenza artificiale, machine learning (ML) e deep learning (DL) in ambienti cloud ibridi. Nuova architettura di storage Tra le varie novità tecnologiche, per venire incontro alle odierne esigenze infrastrutturali e architetturali delle organizzazioni che devono gestire applicazioni HPC e workload AI, lo scorso febbraio è stata introdotta sul mercato una nuova soluzione NAS, chiamata Hyper- scale NAS. Hammerspace , la società califor- niana che l’ha sviluppata, la definisce “una nuova categoria di architettura NAS”. La solu- zione adotta un approccio software-defined e punta a combinare le prestazioni elevate e la scalabilità dei file system paralleli per HPC con la connettività standard-based e le funziona- lità enterprise delle soluzioni NAS. Hyperscale NAS è stata presentata in anteprima dall’am- ministratore delegato di Hammerspace, David Flynn, nel corso del Technology Live!, evento svoltosi a Londra e interamente dedicato ad approfondimenti sulle più recenti e innovative tecnologie di storage. Flynn ha dapprima sinteticamente richiamato le sfide cruciali di storage che nelle organiz- zazioni limitano l’abilità di amministrare i workload HPC. Da un lato, in infrastrutture IT eterogenee (on-premise, cloud) distribuite a livello geografico, l’accesso e la condivisione dei dati necessari per eseguire il training dei modelli richiedono un’interfaccia standard NFS (network file system). Dall’altro, i dati non strutturati, vitali per l’addestramento degli algoritmi di AI, degli LLM (large language model) e della AI generativa, rimangono bloc- cati in silos costituiti dalle soluzioni proprieta- rie di differenti fornitori. Manca poi la capa- cità, da parte dei sistemi NAS e object storage esistenti nelle organizzazioni, di supportare appieno la potenza computazionale dei cluster di GPU (graphics processing unit) distribuiti nell’infrastruttura, in quanto le tradizionali architetture NAS scale-out non sono proget- tate per casi d’uso e applicazioni in cui biso- gna gestire grandi prestazioni di elaborazione. Finora, dichiara Hammerspace, l’erogazione di prestazioni costanti con questo livello di sca- labilità è stata possibile soltanto adottando file system paralleli HPC, che però sono complessi L’architettura di storage HyperscaleNAS (fonte: Hammerspace)

RkJQdWJsaXNoZXIy Mzg4NjYz