Sensi e cervello: il connubio tra sensori e intelligenza artificiale
Dalla rivista:
Automazione Oggi
A prima vista sensori e intelligenza artificiale possono apparire due ambiti separati, certamente tra loro correlati, ma distinti. In fondo, semplificando un po’, il primo riguarda dispositivi, quindi essenzialmente hardware, e il secondo riguarda algoritmi, dunque in sostanza software e sue implementazioni. In realtà, i più recenti sviluppi della ricerca scientifica e tecnologica disegnano un quadro diverso. Si assiste a una crescente integrazione tra sensori e AI verso nuove funzionalità offerte dal connubio, con le aspettative di un incremento di prestazioni e opportunità in numerose applicazioni. Negli scenari Industria 4.0 e IoT, sensori in varie declinazioni tecnologiche, inclusi i Mems, e AI, in particolare con le tecniche di apprendimento automatico, sono anelli della medesima catena di trasformazione virtuosa che dai dati estrae informazione di valore per l’applicazione. Nelle reti distribuite di sensori, i sistemi di elaborazione basati su cloud soffrono della limitazione di dover trasferire e gestire corpose moli di dati, con il conseguente impatto negativo su velocità di risposta e consumo di potenza. Di contro, soluzioni edge, che impiegano elaborazione di prossimità e superano il collo di bottiglia del gravoso trasferimento di dati grezzi, sono più efficaci e promettenti per l’implementazione di algoritmi di AI funzionalmente integrati nei sensori e capaci di produrre localmente informazione di alto livello. In questo contesto, evidenziamo i più significativi risultati della ricerca internazionale nel campo dei sensori accoppiati a tecniche di AI. Nel campo dei sensori ottici, sono stati proposti sensori di immagine Cmos finalizzati alla classificazione dotati di elettronica integrata che implementa reti neurali convoluzionali secondo una logica di elaborazione locale denominata processing in pixel. Diverse sperimentazioni promettenti riguardano l’implementazione dei blocchi di elaborazione locale direttamente nel dominio ottico, realizzando ciò che viene definito optical in-sensor computing. Nel settore della visione computerizzata, significativi sforzi sono indirizzati ai sistemi di conversione immagini-testo e a soluzioni per la restituzione 3D partendo da immagini 2D acquisite da vista singola. In campo acustico, sono in continuo affinamento sistemi compatti basati su microfoni Mems per il riconoscimento vocale e la classificazione del soggetto che parla: si passa dalla rilevazione del suono alla percezione del linguaggio. Le applicazioni potenziali sono molteplici nell’ambito dell’interazione uomocomputer/robot. Nel campo dei sistemi wearable, sono stati sviluppati diversi prototipi di guanti sensorizzati integrati con algoritmi di AI e ML capaci di funzionalità notevolmente evolute, tra cui riconoscere oggetti, classificare gesti e movimenti, fino a interpretare il linguaggio dei segni e consentire la riproduzione di messaggi tradotti in audio ‘parlato’. Studi sperimentali dimostrano che un cerotto sensorizzato applicato nella zona delle labbra abbinato ad algoritmi di AI consente, attraverso la rilevazione e la classificazione dei movimenti muscolari, di riconoscere parole pronunciate senza emettere suono, con la capacità aggiuntiva di identificare il soggetto e distinguerlo. È il campo affascinante dei sistemi di silent speech recognition. Nel settore della domotica, sono in via di sviluppo pavimenti/tappeti sensorizzati, autoalimentati dall’energia del calpestio, che integrano algoritmi di ML in grado di rilevare la presenza di un soggetto nell’ambiente, riconoscerne i movimenti e le attività, e individuarne l’identità entro un gruppo. Le potenzialità di simili sistemi sono amplissime in molti ambiti. Le tecniche di AI sono di aiuto anche nella fase di progettazione dei sensori e nell’ottimizzazione delle prestazioni. Per esempio, sono allo studio sensori integrati con AI progettati per rilevare basse concentrazioni di idrogeno. Nel campo dei Mems, tecniche di calibrazione e compensazione basate su AI sono, per esempio, impiegate per ridurre l’influenza della temperatura nei sensori di pressione e stabilizzare il segnale in unità inerziali (IMU). Una prospettiva di grande interesse è l’utilizzo simultaneo di più sensori differenti combinato con algoritmi di AI che rilevano ed elaborano un insieme di dati eterogeneo, producendo un’informazione in uscita più dettagliata e accurata. È l’approccio definito multimodalità, che suggerisce il richiamo ai sistemi biologici in cui diversi sensi si complementano e le risposte trovano sintesi nel cervello. Naturalmente, nel percorso in atto di integrazione tra sensori e AI problemi e limitazioni non mancano. In particolare, è importante considerare che, a differenza dei tradizionali modelli analitici che sono trasparenti e interpretabili, gli algoritmi utilizzati in AI essenzialmente funzionano come black box, hanno prestazioni che dipendono criticamente da qualità e quantità dei dati di addestramento e sono difficilmente generalizzabili in nuove condizioni operative. In aggiunta, ad oggi sono richieste capacità di calcolo adeguate e il consumo di potenza è significativo. Ma la ricerca progredisce con decisione. Vale la pena di tenersi aggiornati su cosa ci riserva il futuro che, in questo campo, arriverà in fretta.
Contenuti correlati
-
Ingegneria in cloud e assistenti AI nella suite di progettazione B&R
Alla fiera SPS di quest’anno a Norimberga, in Germania, B&R ha annunciato un importante aggiornamento della sua suite completa di software di progettazione e runtime. Con Automation Studio Code, B&R introduce un’esperienza di progettazione completamente nuova. La...
-
I quattro trend nel futuro della supply chain secondo Remira Italia
Investire nella connettività digitale, spingere verso tracciabilità e trasparenza, trovare nuove strategie per rendere le supply chain più resilienti, garantire l’integrità e la coerenza dei dati: queste le quattro tendenze identificate da Remira Italia, azienda specializzata nell’offerta...
-
Rockwell Automation dà vita alle operazioni autonome utilizzando Nvidia Omniverse
Rockwell Automation ha annunciato l’integrazione delle interfacce di programmazione delle applicazioni (API) di Nvidia Omniverse nel proprio software Digital Twin Emulate3D per ottimizzare le operazioni di fabbrica tramite l’intelligenza artificiale e la tecnologia di simulazione fisica. I digital twin ottimizzano...
-
Mancano 5 milioni di esperti di cybersecurity – e adesso?
ISC2, la principale organizzazione non-profit al mondo per i professionisti della sicurezza informatica, ha stimato che quest’anno la carenza di professionisti della cybersecurity raggiungerà quota 4,8 milioni, segnando una crescita del 19% su base annua. Il gap...
-
Accordo tra PTC e Amazon Web Services nel CAD e PDM cloud-native
PTC ha annunciato un accordo di collaborazione strategica con Amazon Web Services (AWS) per accelerare la crescita di Onshape, la sua soluzione cloud-native CAD (Computer Aided Design) e PDM (Product Data Management). Gli obiettivi della partnership includono...
-
Intelligenza Artificiale, al via il bando ‘Io sono futuro’ rivolto alle start-up
Valorizzare il talento dei giovani startupper italiani, mettendolo al servizio di progetti innovativi che sfruttino l’intelligenza artificiale come strumento chiave per affrontare le emergenze globali. Questo l’obiettivo del nuovo bando della Fondazione Della Frera, promosso nell’ambito dell’edizione...
-
Big Data, big opportunity
Per sfruttare i massivi insiemi di dati provenienti da macchine e prodotti IoT, servono sistemi all’avanguardia che integrino automazione avanzata e intelligenza artificiale Correva l’anno 1892 quando, nell’Avventura dei Faggi Rossi, Arthur Conan Doyle faceva esclamare a...
-
Vademecum
L’intelligenza artificiale è ormai la vip invitata a tutte le feste. Anche Assofermet ha realizzato un convegno molto interessante sull’AI in cui, oltre ad aver parlato della situazione istituzionale, geopolitica e industriale, i relatori si sono messi...
-
Agricoltura verticale? Possibile con l’automazione
L’intero sistema dell’inglese IGS, che fornisce piattaforme in grado di creare climi ideali per piante e persone, è gestito da software e robot mobili Omron L’agricoltura verticale automatizzata si sta sviluppando rapidamente, tanto che il mercato globale...
-
Il mercato italiano dei Big Data vale 3,42 miliardi di euro (+20%) con l’intelligenza artificiale che traina gli investimenti
Secondo una recente ricerca dell’Osservatorio Big Data & Business Analytics della School of Management del Politecnico di Milano, nel 2024 la spesa delle aziende italiane in risorse infrastrutturali, software e servizi connessi alla gestione e analisi dei dati crescerà...