Table of Contents Table of Contents
Previous Page  50 / 68 Next Page
Information
Show Menu
Previous Page 50 / 68 Next Page
Page Background

FEBBRAIO 2017

FIELDBUS & NETWORKS

50

Fieldbus & Networks

devono garantire ‘security by design’ sia per la continuità di funziona-

mento (business continuity), sia per la sicurezza delle informazioni in tutti

i suoi aspetti, ovvero disponibilità, integrità e riservatezza. Infine, vi è l’a-

spetto di estrazione degli analytics e presentazione dei dati e delle infor-

mazioni che dai dati si possono distillare, che oggi possono essere anche

consultati su dispositivi portatili come tablet e smartphone. Per ognuna di

tutte queste fasi ServiTecno fornisce prodotti adeguati che sono già at-

tualmente utilizzati con soddisfazione da molti clienti”.

Olivini

: “L’esigenza più diffusa è

quella di poter contare su una piat-

taforma in grado di raccogliere dati

da ogni tipo di canale e in grado di

consentirne l’analisi rapida per tra-

sformali in informazioni. Siemens pro-

pone la piattaformaMindsphere come

base dei servizi di data analytics per

l’industria. Si tratta di un ecosistema

aperto, specializzato nella gestione di

una grande mole di dati in ambito ma-

nifatturiero, nel quale sia i clienti sia

i partner possono sviluppare applica-

zioni per risolvere le specificità del proprio business”.

Porro

: “La soluzione Exalead della Piattaforma 3DExperience di Dassault

Systèmes (DS) consente alle organizza-

zioni di raccogliere, allineare e arricchire

i big data, siano essi interni o esterni,

strutturati o non strutturati, semplici o

complessi, e di presentare tali informa-

zioni nel modo in cui gli utenti deside-

rano riceverle. Questo applicativo

trasforma grandi volumi di dati eteroge-

nei e provenienti da più fonti in una

base di information intelligence signifi-

cativa e in tempo reale per aiutare gli

utenti a migliorare i processi aziendali e

a ottenere un vantaggio competitivo”.

Cupini

: “Oggi le aziende possono contare su sistemi di acquisizione, storage,

gestione e analisi dei dati sempre più intelligenti. Possono sfruttare sistemi di

calcolo sempre più potenti con capacità di analisi spinte, che consentono di

eseguire l’analisi dei dati localmente alla sorgente del segnale. I risultati delle

analisi possono essere associati ai singoli data set come informazioni descrit-

tive degli stessi, garantendone un accesso controllato e più veloce. Gran parte

della aziende documentano in media il 22%dei dati che raccolgono, ma sono

in grado di analizzarne in media solo il 5%. Coloro che si concentrano sulla

standardizzazione dei metadati, aumentando la quantità di dati che è possibile

analizzare automaticamente, vedranno incrementare i propri vantaggi. Oggi

esistono strumenti di acquisizione, analisi e gestione che consentono unmoni-

toraggio intelligente dell’intero processo produttivo. Strumenti per l’analisi dei

dati via cloud che sfruttano le emergenti piattaforme per il cloud computing,

unità di acquisizione dati intelligenti che, attraverso un’analisi locale dei dati,

possono inoltrare verso i database aziendali solo i risultati di opportuni algo-

ritmi di analisi. I dati, opportunamente raccolti e analizzati, possono essere

utilizzati per applicare piani di manutenzione predittiva ai macchinari, agli im-

pianti di generazione energetica e a ogni strumento nel panorama industriale

dotato di un’opportuna tecnologia di sensoristica e di interconnessione”.

Randieri

: “Le tecniche di analisi, facendo leva sul concetto di data mi-

ning, consentono di scavare nei dati ed estrarre informazioni, pattern e

relazioni difficilmente identificabili. L’utilizzo di queste tecniche a fini pre-

visionali fa leva sul concetto di ‘predictive analytics’, tipicamente utilizzato

in molteplici settori economici. Il data mining può essere impiegato per

l’identificazione di comportamenti anomali dei dati atti a indentificare si-

tuazioni rischio o di pericolo per l’azienda. La ‘churn analysis’ consiste

invece nell’analisi del comportamento della clientela per determinare la

probabilità e quindi la tendenza che hanno i clienti di passare alla concor-

renza. Infine, le analisi predittive dell’andamento delle vendite o generi-

camente dell’andamento di serie temporali sono un altro degli ambiti di

impiego del data mining, che di norma utilizzano le più moderne tecniche

di intelligenza artificiale, come reti neurali artificiali, logica fuzzy ecc.”.

Magro

: “Big data significa ripensare all’intera architettura digitale per

cui l’innovazione sta già interessando la sensoristica, i sistemi di comu-

nicazione di rete, l’elaborazione dei dati. Oggi con pochi euro è possibile

dotarsi di piattaforme di elaborazione dati che pochi anni fa erano inac-

cessibili sia sul fronte tecnologico sia economico”.

Big data e realtà: i limiti della modellazione

F&N:

Come possono essere tecnicamente condotte le analisi dei big data

e come risolvere il vincolo relativo all’impossibilità di modellare la realtà?

Secondo

Olivini

l’obiettivo strategico dichiarato è quello di realizzare il

cloudmanufacturing per virtualizzare le risorse di fabbrica, le applicazioni,

i dati e i processi su piattaforme di e-execution ed e-collaboration ospitate

in cloud e sfruttarlo per modellare e controllare la realtà. “Mindsphere

è basato su SAP Hana Cloud Platform e Cloud Foundry è il framework

open source che permette l’integrazione di strumenti di sviluppo delle

applicazioni e la loro esecuzione attraverso cloud computing, modellando

la realtà allo scopo di simularne il comportamento”.

Randieri

: “Ma come si fa a modellare la realtà? È una domanda sem-

plice, ma che racchiude in sé forse tutta la complessità della scienza, per-

ché probabilmente è anche una domanda senza una risposta ben definita

se non la si focalizza a porzioni di essa nettamente definite. La soluzione

analitica al problema è la parte minore, soprattutto oggi che abbiamo a

disposizione tecniche matematiche e informatiche molto potenti e sofi-

sticate. Spesso, la mancata soluzione non dipende dalla tecnica, ma dal

fatto che si imposta male il problema da risolvere. La risposta quindi alla

domanda iniziale non può essere che il consiglio di imparare ad analizzare

i dati integrando i propri studi tecnici con le più moderne tecniche di ana-

lisi. Nel caso della business intelligence le tecniche di predictive analytics

ne rappresentano la naturale evoluzione. È ormai ben noto che le aziende

che hanno già adottato un sistema di BI riescano meglio a comprendere

le potenzialità offerte dall’implementazione di tali tecniche. In aggiunta,

vi è la consapevolezza di essere a metà dall’opera, avendo a disposizione

una base dati sicuramente aggiornata, pulita e certificata”.

Magro cita una frase del professor P.E. Box: “‘All models are wrong but

some are usefull’, ovvero è evidente come, anche di fronte a sistemi molto

complessi, non sia possibile fare altro che tentare di modellarne il com-

portamento se si vogliono assumere decisioni efficaci. Le analisi di big

data seguono protocolli classici di datamining, opportunamente adeguati

per gestire flussi eterogenei e fortemente dinamici. La costruzione del

modello concettuale di analisi segue i paradigmi classici della scienza e

della tecnica, con una differenza sostanziale data dalla possibilità di far

apprendere alle macchine dalle analisi che esse stesse svolgono sui dati,

una nuova era per l’intelligenza artificiale che, grazie al machine learning,

Alberto Olivini,

Siemens Italia

Guido Porro,

Dassault Systèmes