Table of Contents Table of Contents
Previous Page  104 / 134 Next Page
Information
Show Menu
Previous Page 104 / 134 Next Page
Page Background

GIUGNO-LUGLIO 2017

AUTOMAZIONE OGGI 399

104

AO

VISIONE

Spesso i dispositivi vengono considerati intelligenti se servono

a semplificare la vita: è il caso, per esempio, di un videocitofono

che riconosca automaticamente i residenti dell’abitazione per

consentirne l’accesso. Solitamente i dispositivi sono molto più

utili se sono in grado di interagire con il mondo fisico e, sotto

questo aspetto, la visione gioca un ruolo importante: acquisisce

infatti molta informazione e può contribuire all’interazione con

l’ambiente fisico circostante.

Un esempio classico è la robotica, che fin dalle origini ha uti-

lizzato sensori di immagine. I sensori di immagine, l’input del

sistema, sono gli occhi del robot e lo aiutano ad azionare i propri

motori, output del sistema, in modo efficiente. Inoltre, i recenti

sviluppi nel campo dell’apprendimento automatico basato su

reti neurali (tra cui le reti neurali convoluzionali - CNN) permet-

tono oggi di sviluppare sistemi di visione intelligenti dotati

di autoapprendimento.

Le sfide

La visione embedded ha le potenzialità per creare valore in quasi

tutti i mercati dell’elettronica e si svilupperà rapidamente grazie

ai continui miglioramenti di hardware e software. La realizzazione

delle applicazioni di visione embedded, però, comporta molte

sfide, che riguardano tutte le parti del sistema.

A seconda della loro qualità, i dati grezzi acquisiti, si tratti di video

o di immagini fisse, potranno richiedere un’ottimizzazione e un’e-

laborazione; una lente di qualità insufficiente, per esempio, potrà

compromettere l’intero processo di elaborazione dell’immagine.

Inoltre, alcune applicazioni, soprattutto i video ad alta definizione

i può sostenere che la visione sia la più ricca tra le fonti

di informazione basate su sensori. Da molti decenni

scienziati e ingegneri studiano le tecnologie di elabo-

razione delle immagini per sfruttarle in modo efficace,

sviluppando algoritmi che consentano alle macchine

di ‘vedere’. Le prime vere applicazioni commerciali di ciò che è

comunemente denominata ‘visione artificiale’ servivano a ispe-

zionare prodotti in rapido movimento per individuarne i difetti.

I miglioramenti ottenuti su più fronti, ovvero prestazioni di ela-

borazione, consumo energetico, qualità dei sensori di immagine,

algoritmi di elaborazione, apprendimento automatico, hanno

però permesso alla visione artificiale di raggiungere livelli molto

più alti.

Oggi la combinazione tra i sistemi embedded e la visione arti-

ficiale rende possibile realizzare sistemi di visione embedded.

Negli anni a venire assisteremo a una rapida proliferazione delle

tecnologie di visione embedded, tra cui quelle rivolte a condi-

zioni di scarsa illuminazione, o alle immagini ad alta definizione, o

ad applicazioni di fascia alta che sfruttano motori di elaborazione

appositamente sviluppati. Il numero dei prodotti dotati di visione

aumenterà sensibilmente in un’ampia gamma di applicazioni

consumer, automobilistiche, industriali, sanitarie e domotiche.

Un nuovo corso

Internet of Things (IoT) sta trasformando profondamente l’in-

dustria elettronica; si prevede infatti che i dispositivi connessi in

rete saranno miliardi. L’obiettivo IoT è rendere i dispositivi intelli-

genti e accessibili agli utilizzatori in qualunque parte del mondo.

Sistemi

di visione:

come realizzarli?

S

Michael Uyttersprot

Ecco quali sono gli elementi per lo sviluppo di sistemi di visione

embedded rivolti ad applicazioni del ‘mondo reale’

Foto tartta da www.pxabay.com