AS_07_2019

INTELLIGENZA ARTIFICIALE primo piano 22 Ottobre 2019 Automazione e Strumentazione È recentissima la notizia che Google sta rea- lizzando una nuova generazione , ancora più avanzata, dei suoi avveniristici processori appositamente studiati per realizzare applica- zioni di intelligenza artificiale (AI). Si tratta già della terza generazione dei chip che Google ha denominato Tensor Processing Unit (TPU) e che aveva introdotto per la prima volta solo pochi anni fa. Queste nuove unità di elaborazione tensoriale sono chip specifici, cioè dei dispositivi Asic , appositamente progettati per eseguire più veloce- mente gli algoritmi necessari alle applicazioni di apprendimento automatico che utilizzano dei modelli di reti neurali . Il tensore , da cui prendono il nome i nuovi chip, è un ente matematico nato dall’estensione del concetto di vettore che, attraverso la definizione più astratta formulata nell’ambito dell’algebra lineare, assume un carattere più generale e utile dall’ingegneria e all’informatica. Calandosi nella pratica del calcolo numerico e dei nuovi hardware di elabora- zione parallela, i tensori sono rappresentati come matrici n-dimensionali . Questo approccio matriciale risulta particolarmente evidente nella prima generazione dei processori TPU di Google, intro- dotti nel 2016, che erano in pra- tica dei motori a 8-bit ottimizzati per effettuare moltiplicazioni tra matrici. Questi chip erano basati su degli insiemi di istruzioni estesi (Cisc), cioè utilizzavano una architettura logica conven- zionale e molto simile agli x86 o agli Arm, ma con capacità specifiche per gestire e manipolare grandi moli di dati utilizzando l’al- gebra matriciale. Questa prima generazione era in grado di operare su numeri interi ed era ottimiz- zata per operazioni di trasferimento dati . Le capacità di elaborazione numerica e logica, li ren- devano particolarmente efficienti per applicare le funzioni di attivazione dei nodi delle reti neurali. La seconda generazione dei processori TPU di Google ha rappresentato sostanzialmente un incremento dell’ampiezza di memoria che questi processori sono in grado di gestire e una maggiore integrazione, incrementando il numero di core di calcolo e accrescendo il parallelismo di ogni sin- golo chip. La seconda generazione era già tanto strutturata da poter svolgere calcoli in virgola mobile. I miglioramenti nelle più recenti genera- zioni di TPU non si sono limitati alle prestazioni, ma hanno comportato anche un incremento quali- tativo del tipo di algoritmi che i chip sono in grado di svolgere. Le ultime generazioni di TPU, oltre Jacopo Di Blasio NUOVI SEMICONDUTTORI AL LAVORO NELLE APPLICAZIONI AI Nuove e vecchie tecnologie per machine più intelligenti L’evoluzione dei semiconduttori ha ‘naturalmente’ prodotto delle risorse estremamente efficaci nell’implementazione pratica di modelli di reti neurali. Inoltre, con l’introduzione di procedure e chip specifici per l’apprendimento automatico, l’intelligenza artificiale è pronta per nuove applicazioni. @Jacopo_DiBlasio A FIL DI RETE automazione-plus.it www.aixa.it Le applicazioni di AI stanno diventando sempre più diffuse e disponibili grazie all’evoluzione dei chip ad elevato parallelismo, come CPU, GPU e le nuovissime TPU

RkJQdWJsaXNoZXIy MTg0NzE=