AO_412

MARZO 2019 AUTOMAZIONE OGGI 412 132 AO INTELLIGENZA ARTIFICIALE livelli) che deve essere addestrata. Nel campo dell’elaborazione dell’immagine, ad esempio, per addestrare il sistema possono essere utilizzate immagini di diversi alberi. La quantità di dati di immagine richiesta è ovviamente enorme. Nei progetti di ricerca reali il numero di immagini necessario varia da 130.000 a 700.000. Sfruttando questa mole di informazioni le reti neurali sviluppano parametri e routine basate su algoritmi specifici per identificare in modo affidabile un particolare albero. Gpgpu: una tecnologia fondamentale per l’intelligenza artificiale In parecchi sistemi, gran parte del lavoro di riconoscimento di pat- tern viene eseguito in un ambiente cloud basato su Gpgpu che mette a disposizione un’enorme potenza di elaborazione di tipo parallelo. Nel settore manifatturiero, almeno in questo momento, un approccio di questo tipo non è utilizzabile in quanto, in linea ge- nerale, i processi vengono eseguiti ad alta velocità. In questo caso, l’intelligenza risiede nelle immediate vicinanze del dispositivo se non addirittura nel dispositivo stesso. Questo è il motivo per cui si- stemi, apparati e dispositivi industriali sono nellamaggior parte dei casi equipaggiati con sistemi di intelligenza artificiale che utilizzano l’intelligenza basata sulla conoscenza per applicazioni realtime e trasferiscono i dati necessari per deep learning ad ambienti cloud centralizzati che non possono essere ancora collegati in tempo reale. Ciò significa che attualmente è possibile continuare ad adde- strare un sistema di livello superiore con tutti i nuovi dati disponibili emantenere aggiornati i dispositivi locali mediante regolari aggior- namenti software in modo tale che sistemi di questo tipo possano essere classificati come sistemi ad auto-apprendimento. In questo caso l’apprendimento non segue una curva ma viene effettuato su base ciclica. Questo è anche il motivo dell’importanza dei gemelli digitali o dei server edge industriali: nel caso fossero entrambi di- sponibili, anche il deep learning potrebbe essere in grado di sup- portare in misura sempre maggiore funzionalità realtime. Processori embedded con caratteristiche ad hoc Indipendentemente dalla configurazione scelta dagli OEM per l’implementazione dell’intelligenza artificiale, la potenza di ela- borazione, spesso a elevato parallelismo, richiesta per i singoli sistemi o apparati che supportano funzionalità realtime è senza dubbio molto elevata, anche quando si utilizza l’intelligenza artificiale basata sulla conoscenza. Le più recenti APU (Accelerated Processing Unit) embed- ded di AMD sono in grado di soddisfare queste richieste mettendo a disposizione una GPU ad alte prestazioni, oltre al tradi- zionale processore in architettura x86, le cui funzionalità di tipo general purpose supportano i processi di calcolo parallelo richiesti dall’intelligenza artificiale come quelli utilizzati nei data center. Utilizzando GPU embedded discrete del medesimo produttore è possibile adattare le prestazioni di elaborazione parallela ai requisiti specifici di una particolare applicazione industriale che utilizza l’intelligenza artificiale. Processori Ryzen Embedded V1000 di AMD Grazie al notevole incremento in termini di prestazioni grafiche e di elaborazione, alla bassissima dissipazione e alle loro doti di robustezza, i nuovi processori Ryzen Embedded Serie V di AMD sono particolarmente adatti all’uso in applicazioni industriali. Le elevate prestazioni in termini di elaborazione, pari a 3,6 Tflop, ottenute grazie alla presenza di CPU multi-purpose e GPU pre- senti sul medesimo chip, sono le stesse che fino a non molti anni fa erano conseguibili con sistemi caratterizzati da consumi di parecchie centinaia di Watt. Questa potenza di calcolo è ora disponibile a fronte di consumi a partire da 15 W. Questi pro- cessori possono quindi essere integrati in dispositivi privi di ventole, completamente chiusi, e quindi particolarmente ro- busti, da utilizzare all’interno di stabilimenti. Questi processori realtime, supportano anche memorie con codice di correzione dell’errore (ECC), essenziali in parecchi sistemi e apparati usati in campo industriale. Un supporto software completo Questi nuovi processori embedded di AMD possono fare affida- mento su un supporto software completo che comprende tool e framework come TensorFlow, Caffe e Keras, necessari per poter introdurre in tempi brevi e su larga scala l’intelligenza artificiale e gli algoritmi di deep learning. All’indirizzo https://gpuopen. com/professional-compute/ gli sviluppatori possono trovare un’ampia gamma di tool software e ambienti di programma- zione per applicazioni di intelligenza artificiale e deep learning come la diffusa piattaforma ROCm per applicazioni Gpgpu. L’o- pen source è un concetto chiave per assicurare l’indipendenza degli OEM da soluzioni di natura proprietaria. Tra i vari tool di- sponibili si può segnalare HIPfy, che consente la conversione Conga-TR4 con processore Ryzen Embedded di AMD è il più recente modulo in formato COM Express con pinout Type 6 di Congatec per applicazioni industriali locali basate sull’intelligenza artificiale

RkJQdWJsaXNoZXIy MTg0NzE=