Table of Contents Table of Contents
Previous Page  52 / 68 Next Page
Information
Show Menu
Previous Page 52 / 68 Next Page
Page Background

FEBBRAIO 2017

FIELDBUS & NETWORKS

52

Fieldbus & Networks

sta conoscendo una seconda giovinezza e aprirà scenari assolutamente

inesplorati di opportunità e rischi che dovremo imparare a gestire”.

Tieghi

evoca i gemelli digitali, i ‘digital twins’: “Con tutti i dati raccolti

sulla macchina o impianto che abbiamo in osservazione è possibile

estrarre un ‘gemello digitale’, che potrà diventare la nostra palestra sul

quale fare analisi approfondite e sperimentare ipotesi e variazioni che sa-

rebbero impossibili o pericolose da fare sul corrispondente gemello fisico,

ovvero l’impianto o macchinario stesso. Attraverso il concetto di digital

twins è possibile allora spingersi un poco più in là, sfiorare il ‘near miss’,

ovvero il limite oltre il quale si rischierebbe di compromettere l’impianto

stesso, oppure ove le condizioni di gestione non apporterebbero bene-

fici o miglioramenti in termini di efficienza, o dove incrementi produttivi

sarebbero controproducenti in termini di energia o costi di gestione. Su

questi concetti vi sono interessanti esempi affrontati da GE Digital (www.

ge.com/digitaltwingame

)”.

Porro

fa diretto riferimento ai software di DS, con i quali i dati vengono

rilevati e classificati automaticamente in base ai parametri desiderati e

possono essere agevolmente condivisi e letti secondo diversi livelli di

riservatezza e approfondimento. “Quanto all’impossibilità di modellare

la realtà, noi andiamo proprio nella direzione opposta. Gli strumenti per

modellare la realtà ci sono. Quello che spesso manca sono le cosiddette

‘skill’, le competenze specifiche da parte dell’utenza. Ci si riferisce in par-

ticolare alle tecniche di interpretazione del dato e alla capacità di tradurre

le informazioni in strategie aziendali e conseguente operatività. DS, a que-

sto proposito, crede profondamente nel valore della democratizzazione e

semplificazione della tecnologia, anche la più sofisticata intrinsecamente.

I nostri applicativi non presentano particolari problematiche tecniche o

di utilizzo, sono sviluppati secondo l’assunto che devono potere essere

utilizzati da un’utenza varia e su base allargata e i dati possono essere

organizzati in svariati modi per facilitarne la lettura e l’interpretazione”.

Dai dati alle decisioni: un passo decisivo

F&N:

La trasformazione dei dati in decisioni è probabilmente l’azione più

importante e delicata di tutto il processo di big data analysis. Cosa ne

pensate?

Ribadisce

Porro

: “Occorre conseguire una sintesi delle varie tipologie di

dati, interni ed esterni all’azienda, cioè del mercato, per conciliarli in una

visione d’insieme nell’ambito della quale prendere decisioni. Gli strumenti

per fare questo ci sono: i vincoli sono più di carattere organizzativo e cultu-

rale, cioè di revisione dei processi aziendali e delle strutture organizzative

e decisionali, che vanno rese più interconnesse, realizzando un ulteriore

passaggio all’integrazione orizzontale dell’azienda”.

Afferma

Bartolotta

: “Esistono già società di servizi che aiutano le aziende a

gestire grandi quantità di dati, tuttavia sussiste il rischio che le imprese siano

più impegnate a memorizzare o trasportare i dati che ad analizzarli. È molto

più efficiente sviluppare ulteriormente il decentramento. Per raggiungere

questo obiettivo è necessario che semplici componenti, tra cui inverter, sal-

vamotori, contattori e pulsanti, diventino dispositivi in grado di comunicare

e di prendere decisioni autonome basate sui dati ambientali a disposizione.

Ed è così che si trasformano in componenti intelligenti, noti anche come

smart device. In una macchina progettata per l’Industry 4.0 questi dispositivi

devono costituire la prima fase del processo di sviluppo e non l’ultima”.

DeMaestri

conferma che tale fase di trasformazione è molto critica so-

prattutto se non si crea un sistema di business intelligence adeguato. “Le

operazioni più dispendiose sono rappresentate dall’identificazione dei dati

da utilizzare, dalla loro pulizia e uniformazione. Tali azioni devono essere

precise ogniqualvolta occorra implementare un nuovo report, ma anche

quando sono apportati cambiamenti alle basi dati sorgente. Inoltre, un

altro elemento da considerare è la qualità del dato che a volte può essere

frammentato e incompleto. Per cercare di minimizzare questi problemi è

importante identificare il tipo di informazioni di cui l’azienda necessita e

sviluppare un sistema di BI custom basato su ferree logiche, che stabili-

scano fonti e regole a valle di una strategia pulita e chiara”.

A parere di

Magro

“i problemi sono di ordine concettuale perché richie-

dono una solida base conoscitiva per impostare le analisi e tradurle in

sistemi in grado di generare risultati inmodo efficiente rispetto agli obiet-

tivi e ai vincoli di progetto. La buona notizia è che i big player IT stanno

dotando le piattaforme cloud di strumenti tecnologicamente avanzati ma

di facile impiego”.

Sostiene

Tieghi

: “Oggi abbiamo gli strumenti per poter trasformare i dati

in informazioni. Il passo successivo da fare è mettersi nella condizione di

trasformare le informazioni in decisioni. Qui servono conoscenze, forma-

zione, esperienza e non ultimo il buon senso. Il tema dello ‘skill shortage’ è

sul tavolo di molti manager, in quanto sono rare da trovare le competenze

necessarie per i nuovi scenari dell’Industria 4.0, però alcune tecnologie ci

possono aiutare nel passo successivo, cioè di costruire la base di cono-

scenza acquisendo l’esperienza dagli operatori già esperti e mettendola

in database di prodotti che possano guidare gli operatori meno esperti per

fare la scelta più corretta. Iniziano a essere anche utilizzati tool di machine

learning appositamentemodellati sui processi industriali. Anche questi in

tempi rapidi affiancheranno operatori e gestori di impianto suggerendo i

parametri per una conduzione ottimale”.

Sottolinea

Olivini

: “La trasformazione di dati in decisioni richiede una

forma di intelligenza artificiale più o meno complessa, le forme di au-

toregolazione presenti nelle macchine per esempio possono essere già

considerate un significativo embrione di intelligenza artificiale. L’elabora-

zione dei dati nel cloud potrà essere il vettore di uno sviluppo futuro verso

macchine intelligenti”.

Risponde

Randieri

: “Trasformare i dati grezzi in informazione, così da

poter orientare meglio le decisioni, modificando e migliorando la visione

che abbiamo del mondo che ci circonda o quella parte del mondo che ab-

biamo scelto come contesto di ragionamento è più facile dirsi che a farsi.

Il rischio più grande dei big data è di cominciare una raccolta infinita di

dati inutili poiché totalmente scorrelati tra loro da essere non classificati e

quindi impresentabili. Occorre dunque orientarsi seguendo logiche ferree

in grado di stabilire fonti e regole, a valle di una strategia caratterizzata da

driver ben definiti, quali: cosa è necessario scoprire e dove si sta cercando

per scoprire correlazioni e informazioni di cui non si ha coscienza. Supe-

rata la prima fase di raccolta dei dati segue quella della presentazione

quale strumento base per l’analisi e per le attività di disseminazione”.

A parere di

Motta

infine, l’acquisizione dei dati è fondamentale, ma se

non contestualizzati tali dati non rappresentano un valore aggiunto, tra-

sformarli in un patrimonio di informazioni di lavoro e metterli a disposi-

zione degli operatori in modo adeguato rappresenta una delle maggiori

Fonte: www.pixabay.com