Big Data, big opportunity

Pubblicato il 19 novembre 2024

Per sfruttare i massivi insiemi di dati provenienti da macchine e prodotti IoT, servono sistemi all’avanguardia che integrino automazione avanzata e intelligenza artificiale

Correva l’anno 1892 quando, nell’Avventura dei Faggi Rossi, Arthur Conan Doyle faceva esclamare a un impaziente Sherlock Holmes: “Dati! Dati! Dati! Non posso far mattoni senz’argilla!”. Sono passati centotrentadue anni da allora, e mai come oggi il disporre di dati accurati per dedurre tendenze, creare modelli, fare inferenze e prendere decisioni informate ha avuto peso maggiore in così tanti e diversi ambiti: sociale, scientifico, economico, industriale. Oggi più che mai la conoscenza è potere e, dal primario al terziario, i dati sono diventati la valuta corrente in cui si misura il margine competitivo di un’azienda. E se è pur vero che i dati sono sempre stati alla base del processo decisionale, una serie di fattori hanno portato all’odierna affermazione del concetto di Big Data: la riduzione dei costi dell’hardware per elaborazione e immagazzinamento delle informazioni, l’aumento della potenza di calcolo, la formulazione di efficienti architetture dati fondate su database scalabili e distribuiti e, ancora più di recente, la disponibilità di efficaci metodi di estrazione delle informazioni utili con l’ausilio dell’intelligenza artificiale. Disporre di un’adeguata strategia per la raccolta, la conservazione e l’analisi dei dati permette alle aziende di meglio identificare le esigenze dei propri clienti, adattarsi alle mutevoli condizioni del mercato, ottimizzare i propri prodotti tanto durante la fase di sviluppo quanto in quella di utilizzo, e coniugare la crescita economica con il tema della sostenibilità.

Una miniera d’oro digitale

Enormi quantità di dati vengono raccolte ogni giorno dai sistemi informatici gestionali, di automazione e di controllo di processo, le cui architetture centralizzate e localmente distribuite sono state progressivamente affiancate da una granulare frammentazione e diffusione delle reti IIoT e IoT fin dentro i locali delle attività e i domicili della clientela. Il futuro del settore manifatturiero è sempre più influenzato dalla capacità di gestire, localmente o nel cloud, massive quantità di dati e dall’applicazione di tecniche di analisi che vanno sotto il nome di data analytics. Queste tecniche operano su dati opportunamente raccolti, formattati e organizzati e permettono di identificare relazioni e schemi tra variabili (analisi esplorativa), nonché di sintetizzare e comprendere gli eventi passati e i processi in corso (analisi descrittiva). Cosa più importante, permettono di fare predizioni sulla base di dati storici (analisi predittiva), di formulare inferenze su una popolazione statistica partendo dai dati raccolti su un campione (analisi inferenziale) e di suggerire quali azioni intraprendere per ottenere determinati risultati (analisi prescrittiva). Le informazioni così distillate possono essere utilizzate da una pluralità di figure professionali per prendere decisioni informate sulla base di fatti, numeri e trend rilevati in tempo quasi reale. Dai dati di processo e di utilizzo dei macchinari si possono dedurre informazioni utili a migliorare efficienza e produttività (ad esempio identificando eventuali colli di bottiglia od opportunità di modernizzazione); i dati diagnostici permettono di pianificare la manutenzione e ridurre l’impatto dei fermi macchina; i dati di mercato, quelli di magazzino e le informazioni su clienti e prodotti possono essere incrociati per stabilire strategie nella gestione della supply chain, predire la domanda futura di prodotti esistenti e stimolare l’introduzione di migliorie per mantenere o acquisire nuovi clienti.

L’importanza della data strategy

Le applicazioni di questo connubio tra Big Data e data analytics sono virtualmente illimitate e possono essere sfruttate tanto dalle multinazionali quando dalle piccole e medie imprese, ma per convertire una massa informe di informazioni in successo economico è necessario pianificare accuratamente il processo di raccolta, normalizzazione, aggregazione, selezione e analisi dei dati. L’interconnessione di macchine e processi è il prerequisito per poter raccogliere i dati acquisiti dalla sensoristica di campo e intrecciarli con quelli provenienti da altri dipartimenti, tramite un processo automatizzato di formattazione e immagazzinamento e analisi che stabilisca correlazioni con riferimenti adatti a identificare le dinamiche in atto. L’effettiva efficacia delle decisioni prese sulla base delle informazioni estratte può poi essere valutata per mezzo di benchmark, così da stabilire la necessità di correzioni e integrazioni. Il piano dettagliato con cui un’azienda implementa tutti questi passi, a partire dalla definizione delle tecnologie, dei processi, del personale e delle regole impiegati nella gestione, analisi e applicazioni dei dati raccolti costituisce la data strategy. Si tratta di un processo lineare tipicamente composto dalle seguenti fasi:

1. Identificazione degli obiettivi e dei dati rilevanti

2. Raccolta dei dati

3. Archiviazione dei dati

4. Gestione (integrazione e condivisione) dei dati

5. Analisi e presentazione dei dati

6. Protezione e sicurezza (Governance)

I vantaggi derivanti dall’implementazione di un’efficace data strategy sono molteplici: per cominciare, assicurare l’affidabilità e l’accuratezza dei dati raccolti porta a una superiore affidabilità dei risultati della loro analisi; l’automazione del processo di raccolta e raffinamento consente di immagazzinare e condividere le enormi moli di dati necessarie per incrociare le informazioni provenienti dai diversi settori del business, così da mettere in evidenza le inefficienze nei processi aziendali e identificare percorsi per ottimizzarli. Una data strategy ben definita permette di risolvere criticità organizzative, riducendo i costi e migliorando l’efficienza operativa, ma consente anche di identificare nuove opportunità di espansione fornendo indicazioni aggiornate sulle necessità dei clienti e in ultima analisi può portare all’introduzione di nuovi prodotti e servizi.

Le fasi della data strategy

I dati generati dalle aziende provengono da una pluralità di fonti eterogenee e sono pertanto caratterizzati da un elevato grado di diversità. È pertanto inevitabile che il primo passo nello stabilire una data strategy sia la definizione degli obiettivi di business (incrementare le vendite, ottimizzare le attività, migliorare l’esperienza cliente) e l’identificazione di quali siano i dati rilevanti a tal fine, indipendentemente dalla loro origine, struttura e posizione. Il passo successivo è stabilire i metodi per raccogliere i dati prodotti dalle varie fonti (dispositivi IoT, sensori e attuatori IIoT, rapporti finanziari, database aziendali, indagini di mercato, web scraping…), definendo il formato dei dati, i protocolli di comunicazione e la frequenza di campionamento. Il processo di raccolta deve essere accuratamente pianificato per assicurare l’accuratezza, la consistenza e l’affidabilità del dato, e necessariamente automatizzato ponendo particolare attenzione all’ottimizzazione dei consumi energetici e delle risorse impiegate (come la larghezza di banda e la quantità di memoria di massa). La modalità di archiviazione delle informazioni raccolte è un aspetto di primaria importanza proprio per le dimensioni del problema: i database relazionali diventano difficili da gestire in maniera efficiente quando la mole di dati cresce oltre un certo limite; soluzioni palliative come lo sharding del database su più macchine possono aiutare fino a un certo punto, ma il mondo del Big Data richiede approcci più radicali. Oggi le informazioni sono sempre più spesso organizzate in database no-SQL o in tabelle in formato CSV (Comma Separated Values) per questioni di efficienza, scalabilità e facilità di condivisione. Nella successiva fase di data management i dati sono trasformati, ripuliti, corretti e formattati in maniera coerente e consistente per renderli facilmente fruibili. Una volta integrati, i dati provenienti dalle molteplici fonti possono essere condivisi all’interno dell’azienda e venire messi a disposizione per la fase di analisi. È qui che, grazie a specifici linguaggi di programmazione, algoritmi, applicazioni o piattaforme integrate pensate per gestire l’elaborazione dei dati su larga scala, diverse figure professionali in seno all’azienda estraggono le informazioni utili al processo decisionale. Una strategia dati non può essere considerata completa senza un’opportuna data governance, ovverosia un insieme di policy di sicurezza che copra l’intero ciclo di vita dei dati, dalla raccolta dai singoli dispositivi IoT alla trasmissione ai dispositivi di storage (locali o remoti) fino all’accesso da parte dell’applicazione finale. Questo richiede protocolli di sicurezza aggiornati che gestiscano le procedure di autorizzazione e autenticazione per l’accesso ai dati, implementino algoritmi di crittografia e prevengano attacchi informatici.

Data pipeline

Nel contesto dell’analisi di Big Data il percorso del dato dal produttore al consumatore può essere rappresentato da una data pipeline che rispecchia la struttura lineare della data strategy e mette in evidenza una moltitudine di tecnologie differenti nelle diverse fasi di vita del dato. Il punto di partenza sono le fonti dei dati sotto forma di flussi dati eterogenei provenienti da sensori, log, API, e database; in pratica con formati spesso incompatibili tra loro: si spazia dai database SQL dal reparto gestione clienti, ai datasheet dal reparto contabile, a file XML, fino a semplici stringhe di testo o valori numerici generati dagli innumerevoli dispositivi IoT sul campo. Nella fase di data ingestion i dati sono assimilati per mezzo di servizi di data streaming come AWS Kinesis o Apache Kafka. L’immagazzinamento richiede architetture dati che vanno dal database localizzato o distribuito ai data warehouse e ai data lake, con relativi tool specialistici come Amazon S3, Google BigQuery e Hadoop HDFS. Nella fase di data processing, i dati sono trasformati, ripuliti e ricondotti a una forma adeguata per la successiva fase di analisi. Esistono due filosofie di trattamento dei dati a questo riguardo: la metodologia ETL (Extract, Transform, Load) trasforma il dato prima di caricarlo nella pipeline, mentre il più moderno approccio ELT (Extract, Load, Transform) carica il dato prima di trasformarlo, delegando quest’ultima operazione al destinatario del flusso dati. Il dato opportunamente trasformato passa poi alla fase di analisi vera e propria dove il significato utile viene estratto grazie a una pletora di strumenti che spaziano da linguaggi generici come Python ad ambienti di calcolo statistico (come R o SAS) e motori analitici (come Apache Spark), fino ai più avanzati sistemi di machine learning. Le informazioni così distillate sono successivamente riassunte in un formato visuale (rapporti, grafici, dashboard) di facile comprensione per agevolare il processo decisionale. L’ultima fase della pipeline è rappresentata dalla distribuzione dei risultati ai destinatari ultimi, attraverso API dedicate, esportazioni di file o integrazione diretta in altri sistemi.

Data fabric e piattaforme per Big Data

I problemi di scalabilità, sicurezza e integrazione di tecnologie multiple come l’Edge Computing, l’Internet delle cose, il cloud ibrido e l’intelligenza artificiale, hanno portato all’introduzione di soluzioni, denominate data fabric, per l’unificazione e la governance integrata delle architetture dati, al fine di fornire agli utilizzatori una maggior accessibilità alle informazioni. Con data fabric si intende un’architettura che faciliti l’integrazione end-to-end di pipeline dati multiple ed ambienti cloud per mezzo di sistemi automatizzati intelligenti. L’automazione copre l’intero itinerario dei dati, dalle fonti al consumatore, e si occupa di identificare i dati rilevanti, gestirne la trasformazione, suggerire analisi e soluzioni. Il ricorso al data fabric permette di capire al meglio le esigenze dei clienti e di colmare le lacune nella comprensione di processi e prodotti, così da accelerare la trasformazione digitale delle aziende. L’accesso ai dati in una data fabric richiede server veloci per una condivisione ad alte prestazioni di reti e risorse. In termini pratici, si prefigurano due approcci separati: soluzioni on-premise e soluzioni cloud. Le prime sono realizzate e gestite in seno all’azienda stessa: offrono controllo totale sulla infrastruttura IoT e permettono di mantenere i dati all’interno del perimetro aziendale con conseguente maggior sicurezza. Le soluzioni cloud si appoggiano a piattaforme remote di terze parti, cui vengono delegate tutte le operazioni di installazione, aggiornamento, manutenzione e protezione. L’infrastruttura dal lato client può essere davvero minimale, mentre le risorse remote possono essere scalate a piacimento (e pagamento) senza dover acquistare hardware o software aggiuntivi. Per molte piccole e medie imprese una soluzione cloud temporanea può permettere di valutare i vantaggi di un approccio Big Data con un investimento minimo; una volta accertata la profittabilità del processo, sarà possibile valutare se a lungo termine creare l’infrastruttura necessaria a una soluzione stand-alone in seno all’azienda risulti economicamente più vantaggioso.

Applicazioni nel manufacturing

L’approccio Big Data può essere efficacemente impiegato per migliorare l’efficienza produttiva, per monitorare lo stato degli oggetti, per identificare problematiche durante l’uso e per generare report sulla performance. L’interconnessione con i nodi IIoT permette di apportare manovre correttive che alterino i processi di produzione in tempo quasi reale o di effettuare interventi di manutenzione preventiva per ridurre l’evenienza di costosi fermi macchina. In ambito IIoT sta emergendo il trend verso un modello di business di tipo ‘machine customer’, in cui i macchinari di produzione sono dotati di sensori e dispositivi IoT che raccolgono dati sul loro stato, sulle prestazioni e sulle condizioni ambientali circostanti. In un certo senso, le macchine stesse sono diventate clienti delle aziende. Con un approccio basato sul dato raccolto sul campo, le aziende possono anche migliorare l’esperienza del cliente adottando nuovi modelli di business che si distanziano dalla produzione in larga scala in favore di quella che viene definita ‘customizzazione di massa’. La domanda di personalizzazione mirata del prodotto, che caratterizza la moderna tendenza del mercato, può essere soddisfatta creando prodotti ‘smart’ e connessi alla rete che siano in grado di identificare e comunicare trend di utilizzo, se non addirittura di adattarsi direttamente alle mutabili esigenze della clientela. La flessibilità dei prodotti connessi permette anche di proporre il modello PaaS – Product as a Service, in cui a essere acquistata è la possibilità di utilizzare il bene, secondo schemi di tariffazione che dipendono dalle modalità di consumo. La raccolta dei dati può avvenire anche durante la fase di prototipazione di un prodotto o di una macchina, così da poter analizzarne i comportamenti in situazioni di esercizio tipiche. È possibile creare un modello digitale del bene, il cosiddetto digital twin, che potrà essere usato per simularne il comportamento in tempo reale in una vasta gamma di scenari. Questa simulazione consente ai progettisti di caratterizzare con esattezza il comportamento del prodotto così da poterne ottimizzare il design e migliorarne l’efficienza e la durata. Nella fase di esercizio del prodotto, l’accesso ai dati è il prerequisito essenziale per poter fornire servizi tempestivi di assistenza e manutenzione.

Scarica il pdf



Contenuti correlati

  • Vectra AI SOC
    Mancano 5 milioni di esperti di cybersecurity – e adesso?

    ISC2, la principale organizzazione non-profit al mondo per i professionisti della sicurezza informatica, ha stimato che quest’anno la carenza di professionisti della cybersecurity raggiungerà quota 4,8 milioni, segnando una crescita del 19% su base annua. Il gap...

  • PTC accordo Amazon Web Services cloud native CAD e PDM
    Accordo tra PTC e Amazon Web Services nel CAD e PDM cloud-native

    PTC ha annunciato un accordo di collaborazione strategica con Amazon Web Services (AWS) per accelerare la crescita di Onshape, la sua soluzione cloud-native CAD (Computer Aided Design) e PDM (Product Data Management). Gli obiettivi della partnership includono...

  • IT e IoT sempre connessi

    Gruppo Gaser e ifm: una collaborazione che si concretizza in una profonda digitalizzazione degli impianti, così da consentire la tracciabilità e il monitoraggio dei processi di produzione e lo svecchiamento di macchine altrimenti obsolete Il racconto della...

  • Intelligenza Artificiale, al via il bando ‘Io sono futuro’ rivolto alle start-up

    Valorizzare il talento dei giovani startupper italiani, mettendolo al servizio di progetti innovativi che sfruttino l’intelligenza artificiale come strumento chiave per affrontare le emergenze globali. Questo l’obiettivo del nuovo bando della Fondazione Della Frera, promosso nell’ambito dell’edizione...

  • AI e industria: un binomio vincente per competitività e crescita

    L’industria guarda sempre più all’intelligenza artificiale per poter affrontare le sfide poste in essere dall’attuale scenario mondiale e migliorare efficienza, flessibilità, sostenibilità e competitività “L’intelligenza artificiale non si può fermare. Ma l’uomo può sfruttarla a suo favore”...

  • Advantech lancia il servizio di certificazione IEC 62443

    Advantech lancia il servizio di certificazione IEC 62443, pensato per le esigenze di certificazione delle apparecchiature di edge computing in conformità alla norma IEC 62443 e agli standard correlati. Advantech offre una soluzione completa per aumentare la...

  • L’iperconnessione che viene dall’IIoT

    Affrontiamo qui il tema dell’iperconnessione e dell’impiego dell’IoT nell’industria, analizzandone i rischi e le opportunità per le aziende C on l’emergere di tecnologie come l’intelligenza artificiale (AI), l’Edge Computing, la tecnologia dei registri distribuiti (DLT) e la...

  • Vademecum

    L’intelligenza artificiale è ormai la vip invitata a tutte le feste. Anche Assofermet ha realizzato un convegno molto interessante sull’AI in cui, oltre ad aver parlato della situazione istituzionale, geopolitica e industriale, i relatori si sono messi...

  • Agricoltura verticale? Possibile con l’automazione

    L’intero sistema dell’inglese IGS, che fornisce piattaforme in grado di creare climi ideali per piante e persone, è gestito da software e robot mobili Omron L’agricoltura verticale automatizzata si sta sviluppando rapidamente, tanto che il mercato globale...

  • Accordo di partnership fra Seco e NXP

    Seco e NXP Semiconductors annunciano un importante traguardo nella loro collaborazione: la piattaforma software Clea di Seco sarà resa disponibile per tutti gli utilizzatori dei chip NXP e perfettamente integrata con la piattaforma di servizi EdgeLock 2GO...

Scopri le novità scelte per te x