I limiti dell’AI: verificare le prestazioni di ChatGPT in campo ingegneristico

Pubblicato il 16 agosto 2023

Con il rilascio di ChatGPT, ciò che solo pochi mesi fa sembrava fantascienza ora appare plausibile: l’AI è arrivata. Titoli accattivanti, visibili ovunque, dimostrano come l’AI sia in grado di sviluppare codici, insegnare lingue, comporre musica e creare arte. Sembra che l’intelligenza artificiale sia finalmente… intelligente. Tuttavia, secondo il CEO di OpenAI, Sam Altman, molte delle affermazioni sensazionalistiche che si vedono online sono delle esagerazioni, per far presa sul pubblico.

Per mettere alla prova l’AI si è deciso di sottoporre ChatGPT (versione del febbraio 2023) a problemi simili a quelli incontrati nel lavoro di application engineer. Si è scoperto che l’AI è uno strumento promettente, ma ha ancora molta strada da fare prima di poter competere con l’intelligenza umana. In questo articolo verranno presentati alcuni esperimenti e la mia valutazione sulle prestazioni di ChatGPT in varie richieste di tipo ingegneristico.

Risoluzione di problemi di carattere generale

È noto che ChatGPT sia un sistema eccellente per l’aggregazione e la sintesi delle informazioni, ciò spiega come i quesiti su problemi generici (anche utilizzando numeri di parte specifici) generino risposte brillanti. Chiedendo a ChatGPT di risolvere i quesiti più comuni (per esempio: “Perché non vedo l’uscita sul pin DOUT del componente ___?”), ChatGPT fornisce ottimi suggerimenti per la risoluzione di problemi generali, tra cui il controllo dei collegamenti, degli alimentatori e della portata del segnale di ingresso. Queste risposte non sono particolarmente entusiasmanti o innovative, ma sono incredibilmente utili, perché la maggior parte dei problemi di un prodotto si risolve con procedure di ricerca guasti standard. ChatGPT eccelle in questo tipo di risposte generiche.

Un’altra domanda che richiede una risposta di alto livello simile è: “Sto usando un dispositivo I2C e non ricevo alcuna risposta dal dispositivo slave. Ho 7 dispositivi connessi al dispositivo master, utilizzando pull-up da 10k alla massima velocità di trasferimento dei dati. Puoi aiutarmi a risolvere il problema?”. In questo caso, ChatGPT dimostra un’impressionante conoscenza implicita del dominio, anche se suggerisce procedure abbastanza standard per la risoluzione dei problemi I2C. Anche se il risultato in sé non è particolarmente originale, la capacità di GPT di aggregare rapidamente le conoscenze gli consente di generare risposte utili a domande generalizzate, anche in domini più piccoli che potrebbero richiedere un background approfondito. Ciò indica che questo tipo di AI può essere molto utile nel fornire primi passi e informazioni, anche in domini problematici altamente specifici.

Generazione di pseudo-verità

Man mano che si restringe l’ambito del problema emerge una condizione di malfunzionamento inquietante di ChatGPT: genera risposte che sembrano corrette ma, a un esame più approfondito, non lo sono. Per esempio, alla domanda sull’utilizzo di un componente come sostituzione “drop-in”, pin per pin, di un altro componente TQFN a 56 pin, ChatGPT afferma con sicurezza che i componenti hanno 5 pin. Inoltre, fornisce (tra gli altri errori) tensioni di alimentazione e limiti di corrente di uscita errati e afferma che i due componenti sono incompatibili. Ogni presunta “differenza” che ChatGPT riporta fra tale prodotti (in questo caso, MAX4936 e MAX4937) è falsa: i componenti sono quasi identici! Come dimostra questo prompt “pin-for-pin”, i prompt ad alta specificità rivelano rapidamente le origini algoritmiche di ChatGPT e mostrano i limiti dell’attendibilità delle informazioni generate dall’AI.

Supera i test indovinando

Nonostante la parvenza intelligente, ChatGPT è fondamentalmente una macchina basata sul calcolo delle probabilità. Come sottoinsieme di una classe di AI definita “modelli linguistici di grandi dimensioni” (Large Language Models, LLM), in una stringa di testo opera pronosticando la parola (o “token”) successiva più probabile dal punto di vista statistico. Anche quando afferma di farlo, non consulta una scheda tecnica, non cerca informazioni e non è nemmeno connessa a Internet! Pertanto, quello che sembra un “ragionamento” in realtà è un riconoscimento di schemi e un’estrapolazione, fornendo ciò che è più probabile che accada in base ai dati di addestramento. Questo spiega i suoi insuccessi nell’ambito di problemi ben definiti: l’estrapolazione statisticamente probabile diventa del tutto falsa quando è condizionata da domande specifiche.

Oltre a fornire informazioni potenzialmente sbagliate, la struttura degli LLM presenta aspetti pericolosi per quanto riguarda la credibilità e la capacità da parte nostra di usarli in modo sicuro. Il risultato probabilistico di ChatGPT è conforme a delle regolarità statistiche che sfidano l’euristica che usiamo per distinguere la realtà dalla finzione. Quando tale euristica fallisce, il modo migliore per verificare la presenza di errori è risolvere direttamente il problema… ma a questo punto, a cosa serve chiedere a un computer di fare il lavoro per noi?

Guadagnare la fiducia del pubblico

Questo paradosso suggerisce un probabile uso improprio dell’intelligenza artificiale: l’AI è utile solo nella misura in cui possiamo darle fiducia, ma visti gli incentivi, sembra inevitabile scendere a compromessi sulla fiducia per usarla in modo più ampio. Capire come l’AI imita l’intelligenza e dimostrare le sue dinamiche di insuccesso potrebbe spezzare l’illusione in modo tale da ridimensionare le nostre aspettative e prevenire errori così ingenui.

È stata posta la domanda a ChatGPT sul perché generasse delle risposte errate. Una parte della sua risposta riassume perfettamente il problema: i modelli linguistici di OpenAI, compreso GPT-3, sono addestrati su un ampio corpus di testi, che include molti errori e imprecisioni. I modelli utilizzano schemi statistici nei dati per prevedere la parola o la sequenza di parole successiva, quindi è possibile che i modelli generino informazioni errate.

Infine, si è posta la seguente domanda: “Posso fidarmi delle tue risposte?”. Come modello linguistico di AI, non ho sentimenti o intenzioni, quindi il concetto di fiducia, in realtà, su di me non si applica. Tuttavia, posso assicurarti che sono stato progettato per fornire risposte accurate e utili al meglio delle mie capacità, sulla base dei dati e degli algoritmi che sono stati utilizzati per addestrarmi. Mi sforzo di essere il più affidabile e imparziale possibile. Tuttavia, quando si utilizza qualsiasi fonte di informazione, compresi i modelli linguistici di AI come me, è sempre consigliabile esercitare il pensiero critico e verificare i fatti.

In effetti. L’AI ha l’enorme potere di trasformare il nostro mondo, ma dal momento che l’intelligenza artificiale generalizzata diventa più diffusa, accessibile e avanzata, è essenziale continuare la ricerca per comprenderne le capacità e i limiti. Nel tempo, affideremo senza dubbio ad AI come ChatGPT compiti più critici, e dovremo essere in grado di prendere decisioni informate e usare ChatGPT in modo responsabile.

di Alexander Goldstein, Central Applications Engineer, Analog Devices



Contenuti correlati

  • Aumentare l’efficienza in agricoltura

    Raccontiamo come l’intelligenza artificiale e le tecnologie dei sensori incrementano la produttività agricola L’intelligenza artificiale sta trasformando i settori industriali in tutto il mondo, e l’agricoltura non fa eccezione. È essenziale monitorare ogni aspetto del ciclo di...

  • AI e gestione dei talenti: la rivoluzione digitale del capitale umano

    L’AI non è più un concetto futuristico: è una realtà che sta rivoluzionando le strategie aziendali e il modo in cui le organizzazioni affrontano le sfide legate alla gestione delle risorse umane. Il report “Employee Experience Trends 2024” di...

  • L’AI per la qualità produttiva

    L’applicazione dell’AI alla gestione della qualità non si limita alla semplice raccolta e analisi dei dati: le tecnologie predittive, oggi, consentono di costruire modelli che anticipano le problematiche prima ancora che si manifestino, migliorando la resa delle...

  • Rivulis trasforma l’agricoltura con l’AI

    Un’azienda che propone soluzioni innovative per la microirrigazione lancia la propria soluzione in grado di offrire ad agricoltori e professionisti del settore consigli personalizzati per migliorare la produttività, l’efficienza e la sostenibilità delle colture Rivulis, azienda che...

  • B&R AI generativa collaborazione in cloud progettazione Automation Studio Code
    Ingegneria in cloud e assistenti AI nella suite di progettazione B&R

    Alla fiera SPS di quest’anno a Norimberga, in Germania, B&R ha annunciato un importante aggiornamento della sua suite completa di software di progettazione e runtime. Con Automation Studio Code, B&R introduce un’esperienza di progettazione completamente nuova. La...

  • Remira Italia trend gestione supply chain Matteo Sgatti
    I quattro trend nel futuro della supply chain secondo Remira Italia

    Investire nella connettività digitale, spingere verso tracciabilità e trasparenza, trovare nuove strategie per rendere le supply chain più resilienti, garantire l’integrità e la coerenza dei dati: queste le quattro tendenze identificate da Remira Italia, azienda specializzata nell’offerta...

  • Rockwell Automation dà vita alle operazioni autonome utilizzando Nvidia Omniverse

    Rockwell Automation ha annunciato l’integrazione delle interfacce di programmazione delle applicazioni (API) di Nvidia Omniverse nel proprio software Digital Twin Emulate3D  per ottimizzare le operazioni di fabbrica tramite l’intelligenza artificiale e la tecnologia di simulazione fisica. I digital twin ottimizzano...

  • Controllo di visione? Ci pensa l’AI

    Il software Melsoft Vixio di Mitsubishi Electric, basato sull’intelligenza artificiale, è stato integrato da IDM Automation in un sistema che utilizza un robot collaborativo dotato di telecamera al polso per permettere di identificare difetti superficiali di polveri...

  • Vectra AI SOC
    Mancano 5 milioni di esperti di cybersecurity – e adesso?

    ISC2, la principale organizzazione non-profit al mondo per i professionisti della sicurezza informatica, ha stimato che quest’anno la carenza di professionisti della cybersecurity raggiungerà quota 4,8 milioni, segnando una crescita del 19% su base annua. Il gap...

  • PTC accordo Amazon Web Services cloud native CAD e PDM
    Accordo tra PTC e Amazon Web Services nel CAD e PDM cloud-native

    PTC ha annunciato un accordo di collaborazione strategica con Amazon Web Services (AWS) per accelerare la crescita di Onshape, la sua soluzione cloud-native CAD (Computer Aided Design) e PDM (Product Data Management). Gli obiettivi della partnership includono...

Scopri le novità scelte per te x