Novembre/Dicembre 2017
Automazione e Strumentazione
TEST E MISURA
approfondimenti
24
Il ritmo rapido del
progresso tecnologico
dovrebbe essere celebrato e abbracciato. Ali-
menta in modo sbalorditivo le nuove tecnolo-
gie, le conquiste scientifiche, rendendoci più
connessi e sicuri, superando i limiti di ciò che
credevamo precedentemente possibile. L’im-
patto di queste conquiste non è più isolato ad
uno stretto mercato verticale; pervade ogni
settore, esponendo gli operatori ad un’inso-
lita combinazione di complessità e potenziale
di crescita.
In un clima simile, le pressioni e le sfide nella
gestione di questo impatto, però, intimori-
scono le imprese. Come stimolare il progresso
con grandi investimenti nelle tecnologie
future, senza modificare drasticamente il pro-
prio modello aziendale? Le aziende vigilano
sui costi operativi, pur iniziando ad addentrarsi
in diverse aree di investimento, che richiedono
competenze importanti e spesso disparate. Nel
frattempo, le piccole startup, dotate di incredi-
bili strategie di focalizzazione e senza obblighi
precedenti, riescono a sfruttare le nuove tecno-
logie in modi in cui i competitor già affermati
rispondono a fatica.
Come proteggersi, quindi, dal caos? Come
innovare senza aumentare radicalmente i costi?
Tutto si riduce ad una semplice domanda: ti
senti sicuro con gli strumenti che utilizzi? Una
domanda magica, che si tratti di finanze perso-
nali, carriera o di sistemi per l’ingegneria del
futuro. L’
Industrial Internet of Things
, ad
esempio, inaugura una nuova era, di potenziale
connesso, ma anche di rischi significativi. Per
comprendere meglio quale software ti prepara
a progettare in modo più sicuro, dovresti dare
uno sguardo non troppo indietro nel passato.
Nel 2005, i tre precedenti decenni tecnolo-
gici venivano definiti da una semplice osser-
vazione del cofondatore di Intel, Gordon
Moore. La
legge di Moore
prevedeva, in base
al recente passato, che il numero di transistor
per pollice quadrato su un circuito integrato
sarebbe raddoppiato in modo continuo ogni
18 mesi. La crescita apparentemente lineare
era solo l’inizio di una crescita esponenziale.
Prima di conoscere questa legge, i CEO di
tutte le aziende di semiconduttori discute-
vano già del numero di core nell’elaborazione
parallela per gli anni a venire. Paul Otellini,
CEO di Intel, prometteva 80 core per i succes-
sivi cinque anni. L’esigenza di una
maggiore
potenza di elaborazione
con
latenza infe-
riore
si faceva strada. Emergevano disposi-
tivi per l’elaborazione alternativi. Per primo
il chip FPGA; divenne incredibilmente popo-
lare grazie alla temporizzazione definita via
software e ai linguaggi di programmazione
a basso livello estremamente complessi. Poi
si passò all’elaborazione eterogenea, combi-
nando il processore tradizionale e FPGA in un
singolo chip.
Insieme a questa esplosione di architetture per
processori ci fu un’ondata di nuovi ambienti
e linguaggi di programmazione, e manie
di open-source destinate ad un’inevitabile
declino nell’oblio. Naturalmente, tutto il com-
pito di capire come programmare in modo effi-
cace i processori spettava a te.
Ma guardiamo al futuro. L’esplosione delle
funzioni di elaborazione
ci porta verso un
mondo iperconnesso, dal momento che anche i
Jeffrey Phillips
National Instruments (NI) ha introdotto un nuovo ambiente di lavoro basato
sulla configurazione chiamato LabView NXG. Si tratta di un ambiente che,
senza la necessità di programmare, permette di riconoscere e configurare
l’hardware di misura, acquisire i dati del mondo reale, e successivamente
eseguire l’analisi e trasformare i dati grezzi in dati utili.
LABVIEW NXG: LA PROSSIMA GENERAZIONE DI LABVIEW
Come rendere possibile
l’impossibile e semplice l’ordinario
L’AUTORE
J. Phillips, Section Manager, Plat-
form Software, NI
A FIL DI RETE
www.ni.com