AS_08_2019

della produzione e con l’ERP, nella correlazione tra dati di processo e risul- tati controllo qualità, nella necessità di automazione per le macchine più datate. Ma i benefici ottenuti sono innegabili: monitoraggio in tempo reale e identificazione proattiva di situazioni anomale; possibilità di analisi a poste- riori delle cause di eventuale non-qualità del prodotto finale; identificazione dei parametri ottimali per ottenere i risultati desiderati. Dai dati ai modelli Un altro caso interessante, anche per il ruolo e la dimensione dell’azienda impli- cata, è quello del controllo avanzato degli impianti Versalis a Mantova basato sull’analisi dei Big Data. In Versalis - come hanno spiegato E. Mantovani e A. Ferrando - la digital transformation è in piena attuazione: in un settore come quello della produzione di materie plastiche, al centro del dibattito sulla soste- nibilità ambientale, la trasformazione digitale è uno strumento fondamentale per perseguire l’efficienza e la redditività, a garanzia di un’effettiva riduzione dell’impatto ambientale. Inoltre il comparto petrolchimico, nel quale Versalis opera, è per necessità operative ben strumentato e monitorato e si presta perfet- tamente all’utilizzo di tecniche di Machine Learning, Predictive Maintenance e Advanced Process Control (APC) proprie dell’ambito Data Analytics. Un impianto di Versalis è stato di recente dotato di controllo avanzato a seguito di interventi finalizzati ad ottimizzare i controlli di base e a rendere più performante ogni algoritmo residente sul DCS. Nel descriverlo, A. Bigi e M. Suar di Versalis e F. Ghiotto di ABB hanno evidenziato come la raccolti dati di processo, con bassa entità di filtraggio e con elevata frequenza di campionamento, ha consentito di apprezzare la variazione dei dati ‘grezzi’ di processo su cui costruire i modelli. Si sono pertanto raccolti, in parallelo, set di dati con frequenze di acquisizione di 60 s e inferiori, fino a 10 s e 5 s. In tal modo, è stato possibile confrontare e validare i modelli, derivanti dai dati alle diverse frequenze di campionamento e determinare la frequenza ‘caratteristica’ dei processi nelle varie sezioni d’im- pianto. Tale modalità è stata mantenuta per circa 6 mesi, periodo che si consi- dera adeguato per l’acquisizione di dati in condizioni prolungate di carico stabile dell’impianto, privilegiando ove possibile il mantenimento del carico nominale, ma al contempo permettendo anche la successiva validazione dei modelli a diffe- renti carichi. In questa fase sono state inserite in acquisizione circa 200 variabili di processo; nella seguente fase di definizione e implementazione delle matrici di interazione, sulla base di valutazioni di ottimizzazione e stabilità del controllo, il numero di variabili configurate nel sistema APC è stato ridotto a circa 50. Dall’analisi dei big data, condotta con utilizzo di software ABB, si sono potute trarre sia conferme sulla bontà del modello iniziale, sia indicazioni quantita- tive preziosissime per la successiva implementazione. Una volta consolidata la matrice dei guadagni, gran parte della base dati è stata impiegata per calibrare e finalizzare tutti i modelli necessari, per valutare e separare le mutue influenze delle variabili di processo, per prevedere l’andamento delle variabili controllate e dunque per poter modulare perfettamente le azioni da imporre alle variabili manipolate al fine di portare il processo verso il punto di lavoro di volta in volta migliore. In particolare, si sono raggiunti e superati gli indicatori di perfor- mance (KPIs) prefissati in base alle simulazioni iniziali. Della necessità di una valida partnership per attuare il processo di trasforma- zione si è parlato nella tavola rotonda: “Big Data: come navigare nel ‘lago delle buzzword’”. Si è parlato della necessità di garantire la piena interope- rabilità , dell’urgenza di una formazione continua - anche attraverso metodi e strumenti digitali - e capillare, dell’obiettivo di costruire un ecosistema che produca conoscenza , non solo tanti dati: “Spesso si dice: raccolgo dati perché poi la conoscenza verrà. Invece no. Ci vogliono le domande giuste, mancano i generatori di domande che possano trasformare i dati in conoscenza”.

RkJQdWJsaXNoZXIy MTg0NzE=