AS_06_2019

Settembre 2019 Automazione e Strumentazione FOCUS approfondimenti 52 sariamente possedere profonde competenze in scienze statistiche: oggi sul mercato sono dispo- nibili moderni servizi di AI e machine learning, fruibili via cloud, attraverso le piattaforme dei principali cloud provider. Servizi progettati per essere veloci, scalabili e semplici da utilizzare. Google Cloud Platform (GCP), ad esempio, fornisce servizi di machine learning con modelli pre-addestrati, e un servizio per generare modelli personalizzati. In particolare, spiega Google, Cloud AutoML è una suite di prodotti di machine learning che consente agli sviluppatori con espe- rienza limitata nel campo della tecnologia ML di addestrare modelli di alta qualità in base alle esi- genze aziendali. Tuttavia, va anche precisato che, pur aprendo grandi opportunità di trasformazione per il busi- ness, il crescente livello di complessità e sofi- sticatezza raggiunto da intelligenza artificiale e machine learning sta ponendo sempre più anche problemi di comprensibilità e interpre- tabilità degli algoritmi: vi sono infatti vari casi d’uso in cui è vitale riuscire a capire la struttura di ragionamento dell’algoritmo, soprattutto in determinati ambiti disciplinari, e settori aziendali e industriali fortemente regolati. Un dato su tutti: il 67% dei business leader par- tecipanti alla ‘2017 Global CEO Survey’ della società di servizi di consulenza strategica PwC , pensa che, nei prossimi cinque anni, nel proprio settore industriale, l’intelligenza artificiale e l’au- tomazione impatteranno in modo negativo sui livelli di fiducia degli stakeholder. La domanda, chiarisce PWC, è quindi se la AI necessiti di divenire ‘explainable’, o almeno comprensibile, prima di raggiungere la piena diffusione. La sfida centrale, aggiunge la società, è che molte delle applicazioni di AI che usano il machine learning funzionano all’interno di ‘black boxes’: scatole nere, che forniscono informazioni scarse o nulle su come tali applicazioni hanno raggiunto i loro risultati. Tuttavia, vi sono casi in cui aprire que- ste black box, e vedere come ha ragionato l’al- goritmo, è un requisito indispensabile, per svilup- pare negli utenti fiducia sulla correttezza e affida- bilità delle sue conclusioni. Verso la ‘explainable AI’, i casi d’uso PwC definisce la ‘explainable AI’, o ‘XAI’, come un’applicazione di machine learning interpre- tabile, quanto basta a permettere a un operatore umano di comprendere perché il sistema è arri- vato a trarre una specifica conclusione. In questo modo, la tecnologia XAI aiuta a introdurre tra- sparenza nella AI. Trasparenza che si rivela fon- damentale ad esempio nel settore medico, anche per ottemperare a principi etici: nessun dottore sarebbe disposto a fidarsi della diagnosi di una malattia eseguita da un algoritmo di ML, senza prima aver acclarato in qualche modo come il suddetto algoritmo sia potuto giungere a quella conclusione. Proprio in relazione a queste esi- genze del settore della ricerca medica, come di altri ambiti industriali, oltre un anno fa, nel corso del Fujitsu World Tour di Milano, Yoshikuni Takashige, Vice President Marketing Strategy and Vision di Fujitsu , ha sottolineato che avere successo nei progetti di trasformazione digitale dipende anche dalla capacità d’introdurre una AI diversa, ‘umano-centrica’ , in grado di supe- rare i limiti di quella attuale: in altre parole più adatta a collaborare con le persone, per arrivare Le applicazioni di AI e ML stanno evolvendosi verso modelli e algoritmi di ‘explainable AI’

RkJQdWJsaXNoZXIy MTg0NzE=