Intelligenza artificiale e rischi etici: una “cassetta degli attrezzi” per le imprese

Pubblicato il 4 aprile 2022

Dal lavoro congiunto di studiosi dell’Università di Bologna e dell’Università di Oxford arriva una nuova metodologia di auditing per aiutare le imprese e le organizzazioni a seguire le future normative europee sui sistemi di intelligenza artificiale (IA).

L’iniziativa – presentata in un report appena pubblicato – è nata come risposta alla proposta di regolamento sull’intelligenza artificiale avanzata lo scorso anno dalla Commissione europea (Artificial Intelligence Act – AIA), documento che si propone di coordinare l’approccio europeo rispetto alle implicazioni umane ed etiche dell’IA.

La nuova metodologia di auditing – chiamata “capAI” (conformity assessment procedure for AI) – aiuterà il mondo delle imprese ad adeguarsi alla futura legislazione europea sull’IA, prevenendo o comunque riducendo il rischio che i sistemi di intelligenza artificiale si comportino in modo non etico e provochino danni a singoli individui, alle comunità, alla società più in generale, e all’ambiente.

Messo a punto da un gruppo di esperti del Centro per l’Etica Digitale (Cede) attivo al Dipartimento di Scienze Giuridiche dell’Università di Bologna, della Saïd Business School e dell’Oxford Internet Institute dell’Università di Oxford, “capAI” aiuterà le organizzazioni a fare una valutazione dei loro attuali sistemi di intelligenza artificiale, in modo da prevenire violazioni della privacy e un utilizzo scorretto dei dati. Inoltre, questo nuovo strumento offrirà supporto per spiegare i risultati ottenuti da sistemi IA, e per lo sviluppo e l’attivazione di sistemi affidabili e conformi all’Artificial Intelligence Act europeo.

Grazie a capAI, le imprese saranno in grado di produrre una scheda di valutazione per ognuno dei loro sistemi di intelligenza artificiale, che potrà essere condivisa con i loro clienti. Le imprese potranno così mostrare come vengono applicate le “good practices” sul tema e come avviene la gestione consapevole delle problematiche etiche legate all’IA. Questa scheda di valutazione tiene conto degli obiettivi del sistema di AI, dei valori organizzativi che lo sostengono e dei dati che sono stati utilizzati per attivarlo. Inoltre, include informazioni sul responsabile del sistema, insieme ai suoi contatti, nel caso in cui i clienti desiderino mettersi in contatto per dubbi o domande.

“Per mettere a punto il percorso di capAI, abbiamo prima di tutto creato il più completo database esistente sugli errori prodotti da sistemi di IA”, spiega in una nota Matthias Holweg, American Standard Companies Chair in Operations Management alla Saïd Business School e coautore del rapporto. “A partire da questo database, segnalando i problemi più comuni e descrivendo in dettaglio le migliori ‘best practices’, abbiamo poi creato una ‘cassetta degli attrezzi’ unica al mondo per aiutare le organizzazioni a sviluppare e gestire sistemi di intelligenza artificiale a norma di legge, tecnicamente solidi e rispettosi dei principi etici. La nostra speranza è che ‘capAI’ possa diventare un processo standard per tutti i sistemi IA e prevenire così i tanti problemi etici nati fino ad oggi”.

Oltre a tutto questo, capAI può anche aiutare le organizzazioni che lavorano con i sistemi di intelligenza artificiale a monitorare la progettazione, lo sviluppo e l’utilizzo delle tecnologie di IA, a mitigare i rischi di errori e la mancanza di fiducia in questi sistemi, a prevenire danni sia sul piano economico sia su quello dell’immagine pubblica, e a valutare le implicazioni etiche, legali e sociali delle tecnologie di IA.

“L’intelligenza artificiale, nelle sue molteplici forme, è pensata come strumento a beneficio dell’umanità e dell’ambiente: è una tecnologia estremamente potente, ma può diventare anche pericolosa”, spiega il professor Luciano Floridi, direttore del Centro per l’Etica Digitale dell’Università di Bologna, docente all’Oxford Internet Institute e coautore del report. “Per questo, abbiamo sviluppato una metodologia di audit in grado di verificare che i sistemi di IA siano in linea con la legislazione europea e rispettino i principi etici: in questo modo possiamo contribuire a garantire lo sviluppo e l’utilizzo corretto di queste tecnologie”.

 



Contenuti correlati

  • Reply minacce informatiche
    Automation e AI sono la chiave per difendersi dalle minacce del mondo digitale

    La cybersecurity rappresenta oggi una priorità assoluta e contestuale all’implementazione di nuove tecnologie, dato il ruolo cruciale che sono arrivate ad occupare nelle nostre vite private e professionali. Smart Home, Connected Car, Delivery Robot: l’evoluzione non si...

  • Arrow Dani edge
    Edge Computing al servizio delle persone con mobilità limitata con Arrow

    Arrow Electronics ha presentato il nuovo progetto Data Analytics & Network Innovation, noto anche come “Progetto Dani“, che contribuisce a migliorare la vita delle persone che utilizzano la sedia a rotelle e di coloro con mobilità limitata....

  • Tecnoform certificati bianchi Ammagamma
    La trasformazione digitale con Ammagamma fa ottenere a Tecnoform i certificati bianchi

    Ammagamma, società di data science che offre soluzioni di Intelligenza Artificiale alle aziende, e il Gruppo Hera, una delle maggiori multiutility italiane, hanno avviato un nuovo progetto innovativo per Tecnoform, azienda emiliana del settore stampaggi, che ha...

  • Metaverso Metapresence TechStar
    Come gestire il business nel Metaverso con TechStar

    Il Metaverso è realtà: uno spazio virtuale ma concreto, in evoluzione ma già pronto da esplorare, da vedere, sentire e ora abitare grazie a TechStar, realtà tecnologica italiana Metaverse Enabler che accompagna le aziende nella loro Virtual...

  • A SPS Italia 2022, Neurala punta sulla valorizzazione delle risorse umane

    Parliamo di ESG, ovvero di aspetti ambientali, sociali e di governance aziendale. Oggi più che mai, infatti, l’attenzione del pubblico è catalizzata dai temi della sostenibilità, dell’inclusione sociale e dell’etica aziendale. L’automazione in questo scenario può fare molto, sia...

  • Lopigom sceglie l’Intelligenza Artificiale di Vedrai per crescere del 56% entro il 2023

    Per le aziende manifatturiere italiane adottare soluzioni di Intelligenza Artificiale è un’opportunità per orientarsi con lungimiranza nel mercato, prendere decisioni in materia di investimenti e acquisire vantaggi competitivi nei momenti cruciali del proprio sviluppo. A dimostrarlo è...

  • Neurala debutta a SPS Italia

    Neurala, azienda che sviluppa di software per applicazioni di visione artificiale che utilizzano l’IA, ha annunciato il lancio di nuove funzionalità di Vision AI, che saranno presentate nel corso della fiera SPS Italia che si terrà a...

  • Intelligenza Artificiale a noleggio

    Consentire alle piccole e medie imprese di accedere alle soluzioni di Intelligenza Artificiale anche tramite lo strumento del noleggio operativo: nasce con questo obiettivo la partnership tra Vedrai, società specializzata nello sviluppo di soluzioni basate su AI...

  • TeamViewer porta l’intelligenza artificiale nelle fabbriche

    AiStudio di TeamViewer, fornitore di soluzioni per la connettività remota e la digitalizzazione dell’ambiente di lavoro, è un componente aggiuntivo completamente integrato di Intelligenza Artificiale (AI) per la piattaforma di Realtà Aumentata (AR) Frontline. AiStudio consiste in un...

  • Sotto il cofano dell’intelligenza artificiale

    La moderna intelligenza artificiale è caratterizzata da un’ampia varietà di approcci, stili e metodi di programmazione Leggi l’articolo

Scopri le novità scelte per te x