L’open source come strumento per un’intelligenza artificiale sempre più affidabile
AI e ML sono temi particolarmente caldi oggi: sempre più aziende si affidano a queste tecnologie per implementare le proprie operazioni e i processi produttivi, e le istituzioni finanziarie non fanno certo eccezione. In questo contesto, l’affidabilità dell’AI è sempre più cruciale, anche visti i crescenti requisiti normativi. La tracciabilità e la spiegabilità dei modelli di AI/ML sono importanti per creare fiducia e accettazione nella loro adozione e assicurarne il miglioramento continuo. Strategie, tecnologie e soluzioni open source trasparenti avranno quindi un ruolo centrale per la loro implementazione

AI e ML sono già utilizzati da molte imprese di quasi tutti i settori, con il successo di ChatGPT che ne ha reso ancor più visibili i benefici e ha contribuito ad accelerarne l’adozione. Di conseguenza, è naturale prevedere un incremento nell’uso di AI e ML anche nel settore finanziario, persino nei sistemi centrali. Le soluzioni che soddisfano il criterio di “AI affidabile” svolgeranno un ruolo importante in questo senso. Dopotutto, gli istituti finanziari sono vincolati da rigidi requisiti normativi.
AI Act: un quadro normativo per definire le direzioni di sviluppo
L’AI Act (Artificial Intelligence Act) dell’UE, una normativa dedicata allo sviluppo e all’utilizzo dell’AI, sarà di grande importanza in futuro. L’AI Act conterrà un quadro normativo che si applicherà anche al settore finanziario. Sebbene la configurazione finale non sia ancora definita, si può presumere che la normativa conterrà requisiti rigorosi per l’uso dei sistemi di AI, che determineranno, ad esempio, se le banche potranno gestire applicazioni per la valutazione del rischio, utilizzando ad esempio i modelli di AI per valutare l’affidabilità creditizia di un cliente.
Attualmente esistono diverse iniziative volte a promuovere l’applicazione dell’AI affidabile nelle aziende, tra cui spicca la più estesa in Europa, appliedAI. Nata nel 2017 da UnternehmerTUM, l’iniziativa mira a rafforzare l’innovazione europea nel campo dell’AI: grazie alla partecipazione di NVIDIA, NetApp, Red Hat e Munich Re, appliedAI ha esaminato l’uso dell’AI affidabile in vari ambiti, tra cui finanza e assicurazioni. Una stretta collaborazione tra diverse aziende è comunque indispensabile per il successo dell’introduzione delle applicazioni di AI. Di norma, nell’implementazione sono sempre coinvolti tre tipologie di partner: un fornitore e gestore di piattaforme, un fornitore di software indipendente con soluzioni di AI e ML e un Global System Integrator.
I principi dell’open source alla base di un’AI affidabile
Ma quali sono i prerequisiti per fornire un’AI affidabile? Qui che entrano in gioco strategie, tecnologie e soluzioni open source, proprio per le loro intrinseche proprietà di trasparenza e collaborazione. La trasparenza, infatti, è sinonimo di dati facilmente accessibili e processi decisionali tracciabili, mentre la collaborazione garantisce uno scambio continuo tra tutte le parti, che porta a risultati migliori, più efficienti e più sostenibili. Questo approccio open source può anche costituire un punto di riferimento per l’AI/ML in termini di affidabilità. L’affidabilità dell’AI riguarda in ultima analisi aspetti quali spiegabilità, equità, trasparenza, tracciabilità, riproducibilità, robustezza e monitorabilità dei modelli.
Le piattaforme ibride favoriscono l’implementazione dell’AI
L’open source è quindi un aspetto cruciale nel percorso verso un’AI affidabile. Allo stesso modo, le piattaforme cloud ibride aperte basate su Kubernetes con controlli di sicurezza, versioning e archiviazione possono costituire la base sia per l’implementazione di AI e ML che per lo sviluppo, l’addestramento e l’incorporazione di nuovi modelli di AI in tutte le applicazioni, anche in ambito bancario.
In genere, per modellare l’AI, i data scientist conducono dei processi di formazione, test e riadattamento al di fuori dell’ambiente IT produttivo degli istituti finanziari. Il passaggio, poi, all’implementazione delle applicazioni di AI in un ambiente produttivo e, nello specifico, la loro integrazione nei sistemi bancari, richiede di rispettare le specifiche best practice e le norme di sicurezza, di conformità e di governance dell’istituto finanziario. È proprio per favorire questi compiti e processi che le piattaforme aperte rappresentano un’ottima base, in quanto consentono di progettare i modelli in modo affidabile e accelerare il cambio di passo tra la fase di sperimentazione l’operatività.
I concetti di MLOps (Machine Learning Operations), in particolare, stanno acquisendo crescente importanza. Questi si basano su collaudati principi DevOps e mirano allo sviluppo, alla fornitura, alla gestione e alla manutenzione efficiente dei modelli di apprendimento automatico. I modelli di ML sono quindi confezionati in container e distribuiti in modo sicuro utilizzando le procedure DevOps. Il grande vantaggio dei processi MLOps è che possono supportare sia i data scientist nella fase di sviluppo sia i team operativi nella distribuzione dei modelli di ML in un ambiente di produzione.
Il concetto di piattaforma porta a un’elevata flessibilità e resilienza
Una piattaforma open hybrid cloud può anche offrire alle aziende maggiore flessibilità in termini di infrastruttura utilizzata, consentendo di gestire a piacimento il passaggio da ambienti on-premise a cloud. Tale concetto di piattaforma consente, ad esempio, lo sviluppo e l’addestramento del modello di ML nel cloud utilizzando dati di test sintetici, con il successivo incorporamento del modello nell’applicazione on-premise. Al contrario, è possibile addestrare i modelli con i propri dati altamente sensibili nel proprio data center e poi utilizzarli nel cloud.
Inoltre, una strategia open source e di cloud ibrido è vantaggiosa per garantire la conformità ai nuovi regolamenti DORA (Digital Operational Resilience Act) dell’UE, che obbligano le società finanziarie ad assicurare la resilienza delle tecnologie utilizzate per i processi e le applicazioni business-critical e la stabilità operativa dei sistemi digitali. Basandosi su un’infrastruttura cloud ibrida, le aziende possono eseguire le applicazioni in ambienti diversi, supportando al contempo la portabilità delle applicazioni. Ciò contribuisce in modo significativo a rafforzare la resilienza digitale.
Per fare in modo che l’utilizzo dell’AI sia accettato sia da un punto di vista politico-normativo che sociale, la fiducia è un criterio decisivo. In molti settori che devono soddisfare requisiti normativi elevati, sarà quindi indispensabile creare un’AI affidabile che sia spiegabile e rispetti i principi legali ed etici. Nell’implementazione dei corrispondenti scenari di AI, i principi dell’open source svolgeranno un ruolo cruciale.
Di Armin M. Warda, Chief Technologist FSI EMEA di Red Hat
Contenuti correlati
-
Ospedali: infrastrutture più che mai critiche
La chiave per una migliore produttività e una maggiore sicurezza degli ospedali sta nella scelta di una tecnologia intelligente Leggi l’articolo
-
L’Intelligent Planet è realtà
Si è svolto a Taipei in ottobre l’atteso WPC – World Partner Conference 2023 di Advantech, che ha festeggiato anche i 40 anni di presenza sul mercato: al centro i co-creation partner e l’innovazione portata dall’AI Leggi...
-
L’AI rivoluziona la sanità
Si stima che il mercato globale dell’intelligenza artificiale nel settore sanitario nel 2030 raggiungerà i 188 miliardi di dollari e si pensa che grazie a questa tecnologia si possano salvare oltre 250.000 vite ogni anno Leggi l’articolo
-
AI: fuori dal mito fantascientifico e dentro le aziende
L’intelligenza artificiale torna periodicamente al centro della scena, e spesso in modo controverso: tra chi è a favore e chi no. Ma quando il dialogo si spegne, l’AI resta accesa e offre tantissime applicazioni utili e salva-tempo...
-
Potenziare l’innovazione con l’Intelligenza Artificiale nel PLM
Il potenziale e le prospettive dell’intelligenza artificiale (AI) sembrano illimitati anche negli ambiti dello sviluppo prodotto e della produzione. Tuttavia, è importante considerare che, come consuetudine, le funzionalità aggiuntive dovrebbero essere introdotte solo dopo aver assicurato il soddisfacimento...
-
È questione di tecniche e algoritmi
Le tecnologie digitali stanno vivendo un periodo brillante. Realtà aumentata, realtà virtuale e intelligenza artificiale, nate un po’ come gioco, si stanno evolvendo e stanno cambiando il loro parco d’azione entrando in azienda. I dati parlano chiaro…...
-
Il valore aggiunto della GenAI: intervista a Magic Pao – Advantech
In occasione del WPC – World Partner Conference 2023 tenutosi a Taipei (Taiwan) gli scorsi 26-28 ottobre 2023, presso l’AIoT Co-Creation Campus, Automazione Oggi ha intervistato Magic Pao, Associate Vice President of Industrial Cloud & Video Group – Advantech. Ecco cosa ci ha detto....
-
Wine Tech Symposium 2023
Vino e tecnologia: la nuvola dell’innovazione digitale è il motore essenziale per far evolvere l’enoturismo in un’esperienza progettuale e migliorare le performance legate alle vendite dirette al consumatore. L’enoturismo diventa sempre meno casuale e si trasforma in...
-
Awentia, la startup che estrae dati dalle immagini, porta l’AI nei processi produttivi per ridurre i costi e aumentare l’efficienza
In ogni settore, qualunque esso sia, la riduzione degli sprechi, il miglioramento dell’efficienza e l’aumento della produttività sono temi sempre all’ordine del giorno. Ma negli ultimi anni sta accadendo qualcosa di nuovo: l’introduzione di sistemi basati sull’intelligenza artificiale...
-
Aviazione: assistenti digitali e sistemi di AI pronti per essere testati
Il progetto Haiku, finanziato nell’ambito di Horizon Europe, programma dell’Unione Europea per la ricerca e l’innovazione, svilupperà e testerà prototipi di assistenti digitali in diversi ambiti del settore dell’aviazione. Il consorzio, coordinato dalla PMI italiana Deep Blue è...