FEBBRAIO 2017
FIELDBUS & NETWORKS
47
occorre approfondire il significato di alcune parole. Il dato è l’elemento
base potenzialmente informativo, le cui caratteristiche sono note ma non
ancora organizzate o classificate, in quanto costituito da simboli che de-
vono essere elaborati prima di poter essere compresi. L’informazione è
il risultato dell’elaborazione di più dati che restituisce una serie di dati
aggregati e organizzati in modo significativo. La conoscenza è una serie
di informazioni che, aggregate tra loro, consentono di diffondere sapere,
comprensione, cultura o esperienza. Di conseguenza, qualsiasi operazione
di big data analysis consiste in tutte le attività che hanno come obiettivo
l’estrazione di informazioni da una quantità di dati indefinita, ovvero tutto
ciò che attraverso ricerca, analisi e organizzazione genera sapere o cono-
scenza a partire da dati non strutturati. Si tratta di una serie di tecniche e
metodologie molto simili alla statistica ma con una grande differenza: la
prima è usata per fotografare lo stato temporale dei dati, mentre il data
mining è più usato per cercare correlazioni tra variabili a scopi predittivi”.
Spiega
Claudio Cupini
, technical marketing engineer di
National In-
struments Italy
( http://italy.ni.com ): “Con la proliferazione delle tecno-
logie di rete, degli smart device e dei
sistemi intelligenti, elementi cardine
nel panorama IoT (Internet of Things),
si assisterà a una vera e propria esplo-
sione di dati. Basti pensare che entro il
2020 si stima che ci saranno oltre 50
miliardi di dispositivi connessi. La con-
nessione prevede sempre e comunque
uno scambio di dati, di informazioni.
Per questo motivo il problema sarà
non tanto garantire l’opportuna con-
nessione tra i dispositivi, quanto la ge-
stione e l’utilizzo dei dati a disposizione
degli utenti. Si immagini la possibilità
di avere accesso in modo intelligente a questa enorme mole di informa-
zioni e trarne opportuni vantaggi. Un sistema di analisi di quest’enorme
banca dati deve essere dotato per prima cosa di un sistema di datamining
e ricerca dati quanto più veloce ed efficiente possibile. Ciò può essere
garantito solo se al dato è associata un’informazione descrittiva che ne
rende più veloce l’accesso. Parliamo in questo caso di ‘metadati’. Sempre
più aziende si stanno muovendo verso soluzioni enterprise per l’analisi
e gestione dei dati che garantiscono decisioni più rapide, con il preciso
obiettivo di ottimizzare le azioni di business”.
Risponde quindi
Giuseppe Magro
,
CEO di
QCumber
(
www.q-cumber.
com
): “La big data analysis è l’evolu-
zione della business intelligence (BI) su
ampie ed eterogenee basi di dati. Ha ri-
chiesto lo sviluppo di specifici strumenti
di memorizzazione ed elaborazione che
consentono di rendere visibile il valore
straordinario contenuto nei dati renden-
doci più efficaci nelle decisioni”.
Secondo
Francesco Tieghi
, digital
marketing manager di
ServiTecno
( www.servitecno.it ), di big data ne parlano in molti ma non sempre si
riferiscono ai big data industriali. “Noi, per nostra esperienza, parliamo
di big data industriali dal 2001, quando abbiamo iniziato a distribuire e
supportare in Italia il prodotto software Historian (oggi di GE Digital), con-
siderato il fratellomaggiore del pacchetto Scada iFix, uno dei software più
utilizzati per la supervisione e il monitoraggio degli impianti. Così abbiamo
portato avanti il tema della ‘plant intelligence’, ovvero BI, sui dati di produ-
zione e impianto. Negli ultimi anni, con il consolidarsi del concetto di big
data e analytics, abbiamo introdotto Historian Analisys per estrarre e di-
stillare preziose informazioni dalla montagna di dati raccolti sul processo
industriale. Ecco quello che intendiamo per big data analysis Industriale:
ottenere informazioni importanti dai dati raccolti durante la produzione”.
Roberto Motta
, sales initiative Leader ‘The Connected Enterprise’ di
Rockwell Automation
( www.rockwellautomation.it )sottolinea: “Il ter-
mine big data è nato per descrivere una raccolta dati molto estesa in ter-
mini di volume (si parla di miliardi di Terabyte), con un’elevata velocità di
generazione dei dati riferiti a tipologie diverse e provenienti da varie fonti.
Questo tipo di raccolta è legato alla necessità di analisi su un insieme
unico, con l’obiettivo di estrarre informazioni aggiuntive rispetto a quelle
che si potrebbero ottenere analizzando piccole serie di dati della stessa
tipologia e da una fonte univoca. La
big data analysis nasce inizialmente
per sondare gli umori di consumatori
e mercati partendo dal flusso di in-
formazioni che viaggiano e transitano
attraverso Internet. Nel comparto au-
tomazione abbiamo preso a prestito la
terminologia per indicare una mole di
dati comunque significativa, generata
in realtime da macchine e sensori, che
opportunamente analizzata può fornire
agli operatori informazioni tempestive
e contestualizzate per la conduzione
dei processi di produzione”.
Infine, conclude
Alberto Olivini
, portfolio consultant professional Sie-
mens Digital Factory di
Siemens Italia
( www.siemens.it ): “In ambito
manufacturing le macchine moderne generano e genereranno sempre di
più un’enorme quantità di dati provenienti sia da sensori sia dai sistemi di
controllo come i PLC e non solo. Si tratta di dati eterogenei che richiedono
di essere aggregati ed elaborati, solo così possono diventare importanti
indicatori del funzionamento di un processo, dell’efficienza di una lavo-
razione o più semplicemente dello stato di salute di un impianto. La big
data analysis è il processo di valutazione di questa grande mole di dati
attraverso algoritmi dedicati”.
I vantaggi derivanti dall’analisi dei big data
F&N:
Quali sono le aree di business interessate dall’analisi dei big data
e quali vantaggi si possono ottenere da queste analisi?
Esordisce
Bartolotta
: “Fino a non molti anni fa per analizzare quantità
rilevanti di dati era necessario servirsi di costosi calcolatori elettronici che
impiegavano molto tempo per effettuare l’elaborazione richiesta. Oggi,
utilizzando un semplice computer quella stessa quantità di dati è ana-
lizzabile in pochi secondi. Nel settore dell’industria, l’utilizzatore di una
macchina potrà servirsi, per esempio, di un HMI/PLC per analizzare i dati
di funzionamento e produzione della macchina stessa, oltre che per col-
legarli tra loro mediante appositi algoritmi e renderli infine visualizzabili.
Questo consente di giungere a conclusioni importanti e prendere decisioni
per massimizzare l’affidabilità, la continuità di servizio e la produttività
della macchina”.
Claudio Cupini,
National Instruments Italy
Roberto Motta,
Rockwell Automation
Giuseppe Magro,
QCumber