Come si coniugano oggi intelligenza artificiale e sostenibilità?
Come in passato, il Convegno ‘ProgettistaPiù’, organizzato anche quest’anno da Quine Business Publisher in collaborazione con TraceParts e giunto alla terza edizione, dal 23 al 26 gennaio 2024, affronta una selezione di temi di sicuro interesse per i professionisti del software e dell’automazione industriale, e la disponibilità delle registrazioni degli interventi successivamente alle date di svolgimento dell’evento renderà possibile riascoltare le relazioni e approfondire i temi trattati per trarne utile ispirazione per tutto il 2024. È stato quindi con molto piacere che ho ricevuto un inaspettato invito a partecipare alla manifestazione, soprattutto considerando che il tema proposto mi è sembrato particolarmente attuale e intrigante: come si coniugano oggi l’intelligenza artificiale e la sostenibilità? Sicuramente il tema merita una discussione più ampia (e lungi da me fornire in queste righe uno spoiler della discussione ospitata dal Convegno, che invito invece a seguire!), ma almeno tre spunti di riflessione vorrei condividerli, in ordine di (apparente) astrazione. L’aspetto più immediato e macroscopico rispetto al quale emerge la necessità di trovare soluzioni innovative quando si parla di intelligenza artificiale (AI), in termini di sostenibilità, riguarda la quantità di energia richiesta dagli algoritmi di addestramento. Se da un lato è entusiasmante assistere ai sorprendenti successi dell’AI, dall’altro un giudizio oggettivo e realistico del loro valore non può prescindere dalla valutazione dell’intero meccanismo che li produce. Ad esempio, se è vero che l’AI può dare un contributo essenziale nello sviluppo e nell’implementazione di nuove tecnologie per la sostenibilità, come la gestione di smart e micro grid, occorre domandarsi se mantenere tali meccanismi di AI all’opera non richieda un input energetico superiore ai vantaggi da essi forniti. Un secondo aspetto, che potremmo definire di ‘cannibalismo letterario’, riguarda la sostenibilità da un punto di vista della qualità dell’informazione. In un mondo nel quale sempre più documenti sono prodotti da algoritmi che si ‘cibano’ di altri documenti, senza la supervisione critica e la correzione di un occhio umano esperto, è solo questione di tempo prima che i documenti fagocitati siano in larga misura, se non in preponderanza, prodotti essi stessi dai medesimi algoritmi. Combinando tale meccanismo con il fatto che molti algoritmi di addestramento dell’AI sfruttano logiche di reinforcement learning, è chiaro che si producono dei feedback positivi dell’informazione, che ogni ingegnere dell’automazione guarderebbe con sospetto in quanto sorgenti di instabilità. Fuor di metafora, c’è un rischio concreto che informazioni errate o volutamente ingannevoli entrino nel sistema e vengano amplificate dal feedback positivo descritto, trasformandosi in fake news a diffusione su larga scala. Un ultimo aspetto, che come docente mi tocca particolarmente da vicino, è legato alla dimensione ‘sociale’, alla visione del mondo che l’uso massiccio e acritico di certi strumenti può indurre. Sono noti molti casi di studenti che hanno fatto un uso ‘disinvolto’ di strumenti di AI per produrre saggi e ottenere risultati a breve termine, come il superamento di un esame, non considerando che in tal modo stavano coltivando la propria incompetenza. Se la cosa si fosse fermata lì, forse non ce ne dovremmo preoccupare in questa sede; ma di fatto, sono noti anche casi di ‘ricercatori’ che hanno prodotto articoli scientifici con analoghi approcci, obiettivi e risultati. Il modello culturale sottostante è che ‘purché funzioni, non importa capire perché’; e se la tentazione di applicarlo è così forte nell’accademia, cosa possiamo aspettarci nell’industria? E se ci dovesse venire il dubbio che sia solo una preoccupazione ‘accademica’, forse è il momento di chiederci: possiamo fidarci, è sostenibile un’industria, una società che funziona secondo tale criterio?