AS_08_2019

Novembre/Dicembre 2019 Automazione e Strumentazione INDAGINE approfondimenti 42 tine di apprendimento basata su meccanismi di ricompensa e punizione. Nell’apprendimento semi-supervisionato al calcolatore viene for- nito un set di dati incompleti. In tutti i modelli l’obiettivo di fondo è quello di identificare regole e funzioni per la risoluzione dei pro- blemi, nonché modelli e strutture di dati utili a raggiungere determinati obiettivi. Applicazioni e limiti Il recente successo del Deep Learning e delle reti neurali è dovuto al superamento di alcuni ostacoli come la mancanza di dati o di un’a- deguata capacità computazionale. Oggi infatti sono cresciuti a dismisura i dati a disposizione ( Big Data ), sono stati sviluppati sistemi di cal- colo parallelo basati su GPU (Graphics Proces- sing Units) e, soprattutto, sono stati ottimizzati i metodi di addestramento delle reti neurali, che oggi possono trovare soluzioni a problemi che in passato hanno impedito ai ricercatori di ottenere risultati soddisfacenti. I settori in cui l’utilizzo delle reti neurali è una realtà affermata sono numerosi. Spaziano dalla finanza (previsioni sull’andamento dei mercati, analisi del rischio di credito, analisi del portafoglio ecc.) al riconoscimento ed ela- borazione delle immagini , all’analisi del par- lato e al riconoscimento vocale . Applicazioni importanti sono presenti in simulazioni di varia natura, nei sistemi biologici e nelle diagnosi mediche (inclusi i referti di TAC e risonanze magnetiche). Nell’industria vanno segnalati gli impieghi nella guida autonoma / robot steering, nei sistemi di visione , nel controllo di qualità e nel data mining. Le reti neurali artificiali hanno comunque dei limiti , ed è difficile prevedere se col tempo potranno essere superati. Un ostacolo significa- tivo è il fatto che la loro computazione non è analizzabile in modo totale. Gli output forniti spesso non rappresentano la soluzione otti- male. Il periodo di apprendimento può essere più lungo delle aspettative. Le iterazioni neces- sarie infatti dipendono da fattori quali numero e complessità delle variabili di input, algoritmo utilizzato ecc. Le reti neurali insomma non sono necessariamente idonee a risolvere ogni categoria di problema computazionale. La rotta di IBM e Google L’evoluzione recente delle reti neurali vede protagonisti di eccezione alcuni giganti dell’IT. La tecnologia adottata da IBM prevede lo svi- luppo di una rete neurale basata su materiali a cambiamento di fase . L’hardware di tale archi- tettura utilizza leghe come il germanio tellururo di ammonio, che presentano l’interessante pro- prietà di assumere i due diversi stati cristallino (configurazione spaziale omogenea) e amorfo (configurazione spaziale poco definita). Nei neuroni a cambiamento di fase, gli impulsi elet- trici sono in grado di provocare una cristallizza- zione del materiale, innescandone infine il firing (attivazione), analogamente a quanto avviene nelle cellule nervose. Allo stato attuale IBM ha messo a punto il processore TrueNorth dotato di circa 5 miliardi di transistor e un milione di neuroni artificiali, capace di eseguire circa qua- ranta miliardi di operazioni al secondo. Nono- stante i limiti di stabilità il suo funzionamento è quanto di più simile esista all’ emulazione di un cervello umano . Decisamente interessante anche l’approccio alle reti neurali di Google con le Tensor Pro- cessing Unit (TPU), ovvero acceleratori IA costituiti da un circuito ASIC. La prima TPU presentata nel maggio 2016 da Google pre- vedeva un’architettura a specifico dominio caratterizzata da velocità estremamente ele- vate, minori consumi di energia e spazio fisico ridotto. In questa maniera veniva ridotto for- temente il collo di bottiglia di von Neumann con una architettura ad array sistolico (rete omogenea di unità di elaborazione fortemente accoppiate). Per la seconda generazione di TPU sono stati usati due array sistolici che aggre- gano 32768 ALU (Arithmetic and Logic Unit) per valori a 16 bit in virgola mobile per singolo processore. Il TPU di terza generazione, annun- ciato nel maggio 2018, è due volte più potente dei TPU di seconda generazione con un numero di chip quattro volte superiore. TrueNorth, chip neuronale realizzato da IBM (IBM Research)

RkJQdWJsaXNoZXIy MTg0NzE=