Google sta realizzando una nuova generazione, ancora più avanzata, dei suoi avveniristici processori appositamente studiati per realizzare applicazioni di intelligenza artificiale (AI). Si tratta già della terza generazione dei chip che Google ha denominato Tensor Processing Unit (TPU) e che aveva introdotto per la prima volta solo pochi anni fa.
Queste nuove unità di elaborazione tensoriale sono chip specifici, cioè dei dispositivi Asic, appositamente progettati per eseguire più velocemente gli algoritmi necessari alle applicazioni di apprendimento automatico che utilizzano dei modelli di reti neurali.
Il tensore, da cui prendono il nome i nuovi chip, è un ente matematico nato dall’estensione del concetto di vettore che, attraverso la definizione più astratta formulata nell’ambito dell’algebra lineare, assume un carattere più generale e utile dall’ingegneria all’informatica. Calandosi nella pratica del calcolo numerico e dei nuovi hardware di elaborazione parallela, i tensori sono rappresentati come matrici n-dimensionali.
Questo approccio matriciale risulta particolarmente evidente nella prima generazione dei processori TPU di Google, introdotti nel 2016, che erano in pratica dei motori a 8-bit ottimizzati per effettuare moltiplicazioni tra matrici. Questi chip erano basati su degli insiemi di istruzioni estesi (Cisc), cioè utilizzavano una architettura logica convenzionale e molto simile agli x86 o agli Arm, ma con capacità specifiche per gestire e manipolare grandi moli di dati utilizzando l’algebra matriciale. Questa prima generazione era in grado di operare su numeri interi ed era ottimizzata per operazioni di trasferimento dati. Le capacità di elaborazione numerica e logica, li rendevano particolarmente efficienti per applicare le funzioni di attivazione dei nodi delle reti neurali.
La seconda generazione dei processori TPU di Google ha rappresentato sostanzialmente un incremento dell’ampiezza di memoria che questi processori sono in grado di gestire e una maggiore integrazione, incrementando il numero di core di calcolo e accrescendo il parallelismo di ogni singolo chip. La seconda generazione era già tanto strutturata da poter svolgere calcoli in virgola mobile. I miglioramenti nelle più recenti generazioni di TPU non si sono limitati alle prestazioni, ma hanno comportato anche un incremento qualitativo del tipo di algoritmi che i chip sono in grado di svolgere. Le ultime generazioni di TPU, oltre a migliorare l’efficienza nella fase di apprendimento delle reti neurali, sono anche più efficaci nel supportare i motori inferenziali, utilizzati con gli altri paradigmi di machine learning.
Le applicazioni di AI stanno diventando sempre più frequenti e disponibili sul mercato delle applicazioni software, grazie all’evoluzione dei chip ad elevato parallelismo, che comprendono anche le più recenti CPU e GPU, oltre naturalmente all’introduzione di dispositivi specifici, come i sistemi TPU menzionati in precedenza.
Oggi le tecnologie di AI sono così diffuse e importanti, anche da un punto di vista economico, che si tengono delle fiere specializzate, come Artificial Intelligence Expo of Applications – Aixa, di Milano. Questa manifestazione, che si terrà dal 4 al 7 novembre , si concentra sulle applicazioni delle tecnologie AI, come le soluzioni predittive e capaci di anticipare il comportamento degli utenti umani.