A prima vista sensori e intelligenza artificiale possono apparire due ambiti separati, certamente tra loro correlati, ma distinti. In fondo, semplificando un po’, il primo riguarda dispositivi, quindi essenzialmente hardware, e il secondo riguarda algoritmi, dunque in sostanza software e sue implementazioni. In realtà, i più recenti sviluppi della ricerca scientifica e tecnologica disegnano un quadro diverso. Si assiste a una crescente integrazione tra sensori e AI verso nuove funzionalità offerte dal connubio, con le aspettative di un incremento di prestazioni e opportunità in numerose applicazioni. Negli scenari Industria 4.0 e IoT, sensori in varie declinazioni tecnologiche, inclusi i Mems, e AI, in particolare con le tecniche di apprendimento automatico, sono anelli della medesima catena di trasformazione virtuosa che dai dati estrae informazione di valore per l’applicazione. Nelle reti distribuite di sensori, i sistemi di elaborazione basati su cloud soffrono della limitazione di dover trasferire e gestire corpose moli di dati, con il conseguente impatto negativo su velocità di risposta e consumo di potenza. Di contro, soluzioni edge, che impiegano elaborazione di prossimità e superano il collo di bottiglia del gravoso trasferimento di dati grezzi, sono più efficaci e promettenti per l’implementazione di algoritmi di AI funzionalmente integrati nei sensori e capaci di produrre localmente informazione di alto livello. In questo contesto, evidenziamo i più significativi risultati della ricerca internazionale nel campo dei sensori accoppiati a tecniche di AI. Nel campo dei sensori ottici, sono stati proposti sensori di immagine Cmos finalizzati alla classificazione dotati di elettronica integrata che implementa reti neurali convoluzionali secondo una logica di elaborazione locale denominata processing in pixel. Diverse sperimentazioni promettenti riguardano l’implementazione dei blocchi di elaborazione locale direttamente nel dominio ottico, realizzando ciò che viene definito optical in-sensor computing. Nel settore della visione computerizzata, significativi sforzi sono indirizzati ai sistemi di conversione immagini-testo e a soluzioni per la restituzione 3D partendo da immagini 2D acquisite da vista singola. In campo acustico, sono in continuo affinamento sistemi compatti basati su microfoni Mems per il riconoscimento vocale e la classificazione del soggetto che parla: si passa dalla rilevazione del suono alla percezione del linguaggio. Le applicazioni potenziali sono molteplici nell’ambito dell’interazione uomocomputer/robot. Nel campo dei sistemi wearable, sono stati sviluppati diversi prototipi di guanti sensorizzati integrati con algoritmi di AI e ML capaci di funzionalità notevolmente evolute, tra cui riconoscere oggetti, classificare gesti e movimenti, fino a interpretare il linguaggio dei segni e consentire la riproduzione di messaggi tradotti in audio ‘parlato’. Studi sperimentali dimostrano che un cerotto sensorizzato applicato nella zona delle labbra abbinato ad algoritmi di AI consente, attraverso la rilevazione e la classificazione dei movimenti muscolari, di riconoscere parole pronunciate senza emettere suono, con la capacità aggiuntiva di identificare il soggetto e distinguerlo. È il campo affascinante dei sistemi di silent speech recognition. Nel settore della domotica, sono in via di sviluppo pavimenti/tappeti sensorizzati, autoalimentati dall’energia del calpestio, che integrano algoritmi di ML in grado di rilevare la presenza di un soggetto nell’ambiente, riconoscerne i movimenti e le attività, e individuarne l’identità entro un gruppo. Le potenzialità di simili sistemi sono amplissime in molti ambiti. Le tecniche di AI sono di aiuto anche nella fase di progettazione dei sensori e nell’ottimizzazione delle prestazioni. Per esempio, sono allo studio sensori integrati con AI progettati per rilevare basse concentrazioni di idrogeno. Nel campo dei Mems, tecniche di calibrazione e compensazione basate su AI sono, per esempio, impiegate per ridurre l’influenza della temperatura nei sensori di pressione e stabilizzare il segnale in unità inerziali (IMU). Una prospettiva di grande interesse è l’utilizzo simultaneo di più sensori differenti combinato con algoritmi di AI che rilevano ed elaborano un insieme di dati eterogeneo, producendo un’informazione in uscita più dettagliata e accurata. È l’approccio definito multimodalità, che suggerisce il richiamo ai sistemi biologici in cui diversi sensi si complementano e le risposte trovano sintesi nel cervello. Naturalmente, nel percorso in atto di integrazione tra sensori e AI problemi e limitazioni non mancano. In particolare, è importante considerare che, a differenza dei tradizionali modelli analitici che sono trasparenti e interpretabili, gli algoritmi utilizzati in AI essenzialmente funzionano come black box, hanno prestazioni che dipendono criticamente da qualità e quantità dei dati di addestramento e sono difficilmente generalizzabili in nuove condizioni operative. In aggiunta, ad oggi sono richieste capacità di calcolo adeguate e il consumo di potenza è significativo. Ma la ricerca progredisce con decisione. Vale la pena di tenersi aggiornati su cosa ci riserva il futuro che, in questo campo, arriverà in fretta.