GIUGNO-LUGLIO 2017
AUTOMAZIONE OGGI 399
104
AO
VISIONE
Spesso i dispositivi vengono considerati intelligenti se servono
a semplificare la vita: è il caso, per esempio, di un videocitofono
che riconosca automaticamente i residenti dell’abitazione per
consentirne l’accesso. Solitamente i dispositivi sono molto più
utili se sono in grado di interagire con il mondo fisico e, sotto
questo aspetto, la visione gioca un ruolo importante: acquisisce
infatti molta informazione e può contribuire all’interazione con
l’ambiente fisico circostante.
Un esempio classico è la robotica, che fin dalle origini ha uti-
lizzato sensori di immagine. I sensori di immagine, l’input del
sistema, sono gli occhi del robot e lo aiutano ad azionare i propri
motori, output del sistema, in modo efficiente. Inoltre, i recenti
sviluppi nel campo dell’apprendimento automatico basato su
reti neurali (tra cui le reti neurali convoluzionali - CNN) permet-
tono oggi di sviluppare sistemi di visione intelligenti dotati
di autoapprendimento.
Le sfide
La visione embedded ha le potenzialità per creare valore in quasi
tutti i mercati dell’elettronica e si svilupperà rapidamente grazie
ai continui miglioramenti di hardware e software. La realizzazione
delle applicazioni di visione embedded, però, comporta molte
sfide, che riguardano tutte le parti del sistema.
A seconda della loro qualità, i dati grezzi acquisiti, si tratti di video
o di immagini fisse, potranno richiedere un’ottimizzazione e un’e-
laborazione; una lente di qualità insufficiente, per esempio, potrà
compromettere l’intero processo di elaborazione dell’immagine.
Inoltre, alcune applicazioni, soprattutto i video ad alta definizione
i può sostenere che la visione sia la più ricca tra le fonti
di informazione basate su sensori. Da molti decenni
scienziati e ingegneri studiano le tecnologie di elabo-
razione delle immagini per sfruttarle in modo efficace,
sviluppando algoritmi che consentano alle macchine
di ‘vedere’. Le prime vere applicazioni commerciali di ciò che è
comunemente denominata ‘visione artificiale’ servivano a ispe-
zionare prodotti in rapido movimento per individuarne i difetti.
I miglioramenti ottenuti su più fronti, ovvero prestazioni di ela-
borazione, consumo energetico, qualità dei sensori di immagine,
algoritmi di elaborazione, apprendimento automatico, hanno
però permesso alla visione artificiale di raggiungere livelli molto
più alti.
Oggi la combinazione tra i sistemi embedded e la visione arti-
ficiale rende possibile realizzare sistemi di visione embedded.
Negli anni a venire assisteremo a una rapida proliferazione delle
tecnologie di visione embedded, tra cui quelle rivolte a condi-
zioni di scarsa illuminazione, o alle immagini ad alta definizione, o
ad applicazioni di fascia alta che sfruttano motori di elaborazione
appositamente sviluppati. Il numero dei prodotti dotati di visione
aumenterà sensibilmente in un’ampia gamma di applicazioni
consumer, automobilistiche, industriali, sanitarie e domotiche.
Un nuovo corso
Internet of Things (IoT) sta trasformando profondamente l’in-
dustria elettronica; si prevede infatti che i dispositivi connessi in
rete saranno miliardi. L’obiettivo IoT è rendere i dispositivi intelli-
genti e accessibili agli utilizzatori in qualunque parte del mondo.
Sistemi
di visione:
come realizzarli?
S
Michael Uyttersprot
Ecco quali sono gli elementi per lo sviluppo di sistemi di visione
embedded rivolti ad applicazioni del ‘mondo reale’
Foto tartta da www.pxabay.com