FEBBRAIO 2017
FIELDBUS & NETWORKS
50
Fieldbus & Networks
devono garantire ‘security by design’ sia per la continuità di funziona-
mento (business continuity), sia per la sicurezza delle informazioni in tutti
i suoi aspetti, ovvero disponibilità, integrità e riservatezza. Infine, vi è l’a-
spetto di estrazione degli analytics e presentazione dei dati e delle infor-
mazioni che dai dati si possono distillare, che oggi possono essere anche
consultati su dispositivi portatili come tablet e smartphone. Per ognuna di
tutte queste fasi ServiTecno fornisce prodotti adeguati che sono già at-
tualmente utilizzati con soddisfazione da molti clienti”.
Olivini
: “L’esigenza più diffusa è
quella di poter contare su una piat-
taforma in grado di raccogliere dati
da ogni tipo di canale e in grado di
consentirne l’analisi rapida per tra-
sformali in informazioni. Siemens pro-
pone la piattaformaMindsphere come
base dei servizi di data analytics per
l’industria. Si tratta di un ecosistema
aperto, specializzato nella gestione di
una grande mole di dati in ambito ma-
nifatturiero, nel quale sia i clienti sia
i partner possono sviluppare applica-
zioni per risolvere le specificità del proprio business”.
Porro
: “La soluzione Exalead della Piattaforma 3DExperience di Dassault
Systèmes (DS) consente alle organizza-
zioni di raccogliere, allineare e arricchire
i big data, siano essi interni o esterni,
strutturati o non strutturati, semplici o
complessi, e di presentare tali informa-
zioni nel modo in cui gli utenti deside-
rano riceverle. Questo applicativo
trasforma grandi volumi di dati eteroge-
nei e provenienti da più fonti in una
base di information intelligence signifi-
cativa e in tempo reale per aiutare gli
utenti a migliorare i processi aziendali e
a ottenere un vantaggio competitivo”.
Cupini
: “Oggi le aziende possono contare su sistemi di acquisizione, storage,
gestione e analisi dei dati sempre più intelligenti. Possono sfruttare sistemi di
calcolo sempre più potenti con capacità di analisi spinte, che consentono di
eseguire l’analisi dei dati localmente alla sorgente del segnale. I risultati delle
analisi possono essere associati ai singoli data set come informazioni descrit-
tive degli stessi, garantendone un accesso controllato e più veloce. Gran parte
della aziende documentano in media il 22%dei dati che raccolgono, ma sono
in grado di analizzarne in media solo il 5%. Coloro che si concentrano sulla
standardizzazione dei metadati, aumentando la quantità di dati che è possibile
analizzare automaticamente, vedranno incrementare i propri vantaggi. Oggi
esistono strumenti di acquisizione, analisi e gestione che consentono unmoni-
toraggio intelligente dell’intero processo produttivo. Strumenti per l’analisi dei
dati via cloud che sfruttano le emergenti piattaforme per il cloud computing,
unità di acquisizione dati intelligenti che, attraverso un’analisi locale dei dati,
possono inoltrare verso i database aziendali solo i risultati di opportuni algo-
ritmi di analisi. I dati, opportunamente raccolti e analizzati, possono essere
utilizzati per applicare piani di manutenzione predittiva ai macchinari, agli im-
pianti di generazione energetica e a ogni strumento nel panorama industriale
dotato di un’opportuna tecnologia di sensoristica e di interconnessione”.
Randieri
: “Le tecniche di analisi, facendo leva sul concetto di data mi-
ning, consentono di scavare nei dati ed estrarre informazioni, pattern e
relazioni difficilmente identificabili. L’utilizzo di queste tecniche a fini pre-
visionali fa leva sul concetto di ‘predictive analytics’, tipicamente utilizzato
in molteplici settori economici. Il data mining può essere impiegato per
l’identificazione di comportamenti anomali dei dati atti a indentificare si-
tuazioni rischio o di pericolo per l’azienda. La ‘churn analysis’ consiste
invece nell’analisi del comportamento della clientela per determinare la
probabilità e quindi la tendenza che hanno i clienti di passare alla concor-
renza. Infine, le analisi predittive dell’andamento delle vendite o generi-
camente dell’andamento di serie temporali sono un altro degli ambiti di
impiego del data mining, che di norma utilizzano le più moderne tecniche
di intelligenza artificiale, come reti neurali artificiali, logica fuzzy ecc.”.
Magro
: “Big data significa ripensare all’intera architettura digitale per
cui l’innovazione sta già interessando la sensoristica, i sistemi di comu-
nicazione di rete, l’elaborazione dei dati. Oggi con pochi euro è possibile
dotarsi di piattaforme di elaborazione dati che pochi anni fa erano inac-
cessibili sia sul fronte tecnologico sia economico”.
Big data e realtà: i limiti della modellazione
F&N:
Come possono essere tecnicamente condotte le analisi dei big data
e come risolvere il vincolo relativo all’impossibilità di modellare la realtà?
Secondo
Olivini
l’obiettivo strategico dichiarato è quello di realizzare il
cloudmanufacturing per virtualizzare le risorse di fabbrica, le applicazioni,
i dati e i processi su piattaforme di e-execution ed e-collaboration ospitate
in cloud e sfruttarlo per modellare e controllare la realtà. “Mindsphere
è basato su SAP Hana Cloud Platform e Cloud Foundry è il framework
open source che permette l’integrazione di strumenti di sviluppo delle
applicazioni e la loro esecuzione attraverso cloud computing, modellando
la realtà allo scopo di simularne il comportamento”.
Randieri
: “Ma come si fa a modellare la realtà? È una domanda sem-
plice, ma che racchiude in sé forse tutta la complessità della scienza, per-
ché probabilmente è anche una domanda senza una risposta ben definita
se non la si focalizza a porzioni di essa nettamente definite. La soluzione
analitica al problema è la parte minore, soprattutto oggi che abbiamo a
disposizione tecniche matematiche e informatiche molto potenti e sofi-
sticate. Spesso, la mancata soluzione non dipende dalla tecnica, ma dal
fatto che si imposta male il problema da risolvere. La risposta quindi alla
domanda iniziale non può essere che il consiglio di imparare ad analizzare
i dati integrando i propri studi tecnici con le più moderne tecniche di ana-
lisi. Nel caso della business intelligence le tecniche di predictive analytics
ne rappresentano la naturale evoluzione. È ormai ben noto che le aziende
che hanno già adottato un sistema di BI riescano meglio a comprendere
le potenzialità offerte dall’implementazione di tali tecniche. In aggiunta,
vi è la consapevolezza di essere a metà dall’opera, avendo a disposizione
una base dati sicuramente aggiornata, pulita e certificata”.
Magro cita una frase del professor P.E. Box: “‘All models are wrong but
some are usefull’, ovvero è evidente come, anche di fronte a sistemi molto
complessi, non sia possibile fare altro che tentare di modellarne il com-
portamento se si vogliono assumere decisioni efficaci. Le analisi di big
data seguono protocolli classici di datamining, opportunamente adeguati
per gestire flussi eterogenei e fortemente dinamici. La costruzione del
modello concettuale di analisi segue i paradigmi classici della scienza e
della tecnica, con una differenza sostanziale data dalla possibilità di far
apprendere alle macchine dalle analisi che esse stesse svolgono sui dati,
una nuova era per l’intelligenza artificiale che, grazie al machine learning,
Alberto Olivini,
Siemens Italia
Guido Porro,
Dassault Systèmes