AS_03_2019

Aprile 2019 Automazione e Strumentazione FOCUS approfondimenti 46 operativa (OT) sono costituiti da hardware e sof- tware chemonitora e controlla direttamente i dispo- stivi fisici: in questi ambienti embedded, per varie ragioni, non risulta sempre fattibile o conveniente trasmettere tutti i dati nel cloud, perché spesso le applicazioni di AI e ML implementate devono soddisfare requisiti di elaborazione dati continua in ‘real-time’ a livello locale, con limitazioni e vincoli progettuali in termini di capacità computazionale e consumi di energia per i singoli dispositivi. Deep learning applicato alla visione industriale Un esempio di applicazione embedded con requi- siti di elaborazione del workflow di AI a livello locale è l’adozione nei sistemi di visione indu- striale della tecnologia deep learning’ (DL), o apprendimento approfondito, che in sostanza è una particolare tecnica di machine learning. Nell’ambiente di fabbrica il sistema può svilup- pare l’abilità d’ispezionare e analizzare oggetti, materie prime, pezzi prodotti, per identificare in automatico eventuali difetti e anomalie di pro- duzione, sostituendo in taluni casi l’operatore umano, grazie alla capacità dell’algoritmo di DL, preventivamente addestrato, di eseguire il ricono- scimento di determinate immagini. In tal modo è possibile migliorare e automatizzare i processi di controllo della qualità dei prodotti, e individuare in anticipo problemi nei processi di manufactu- ring. In questa applicazione embedded parte del processo di DL va però spostato nell’infrastrut- tura edge, dove sono localizzati gli endpoint e telecamere dedicati al riconoscimento in tempo reale dei difetti di produzione. Si parla quindi di edge AI , cioè di un’architettura in cui una parte dei carichi di lavoro dell’algoritmo d’intelligenza artificiale è demandata all’hardware esistente nella periferia della rete: questa parte di workload è quella relativa all’analisi inferenziale. Spostare nell’edge l’analisi inferenziale Il funzionamento delle reti neurali artificiali richiede ingenti risorse hardware: in particolare, le ANN (artificial neural network) più com- plesse, come le reti neurali ‘profonde’ (DNN - deep neural network), su cui viene basato l’ad- destramento degli algoritmi di DL, assorbono un’elevata potenza computazionale. Capacità di calcolo fornita integrando la potenza com- putazionale già esistente nelle infrastrutture di data center on-premise, e ‘CPU-based’, con hardware di accelerazione per la AI , solita- mente basato su dispositivi GPU (graphics pro- cessing unit), FPGA (field-programmable gate array), ASIC (application-specific integrated circuit). In alternativa, o in aggiunta a tali risorse hardware, come accennato, le imprese che ese- guono algoritmi di AI, ML, DL nelle proprie applicazioni possono scegliere di utilizzare i ser- vizi cloud di apprendimento automatico e acce- lerazione hardware disponibili presso cloud ser- vice provider, come AWS, Google, Microsoft. Nelle classiche applicazioni IT, i data center amministrano sia la fase di training dell’algo- ritmo, sia la fase che segue l’addestramento, o analisi inferenziale , in cui un motore inferen- ziale, applicando regole, e classificando la base di dati, trae conclusioni logiche e risultati. Rispetto alla fase iniziale di training, l’analisi inferenziale risulta però relativamente meno ‘compute-inten- sive’, e ciò, nel caso delle architetture di edge AI, consente di spostarla ed eseguirla negli endpoint e device embedded che elaborano le informazioni localmente. Un esempio di Edge AI può essere rappresentato dalla VPU (vision processing unit) Intel Movidius Myriad X, il cui ‘neural compute engine’ costituisce un acceleratore hardware dedi- cato per analisi inferenziali nelle DNN. Schiera di server del data-center Google della Contea Mayes (Oklahoma, USA) La VPU Intel Movidius Myriad X, dedicata all’analisi inferenziale a livello di infrastruttura edge (fonte: Intel)

RkJQdWJsaXNoZXIy MTg0NzE=