Da Turing al fenomeno Gpt-3, la lunga storia dell’Intelligenza artificiale

Fu il padre del computer nel 1950 a intuire la potenzialità della macchina nell’uso del linguaggio, ma i risultati immaginati 70 anni fa stanno iniziando ad arrivare solo adesso

Pubblicato il 27 aprile 2021

Nella storia di Microsoft l’acquisizione di Nuance per quasi 20 miliardi di dollari è seconda solo a quella di LinkedIn: per il social network dei professionisti la società fondata da Bill Gates, nel 2016, aveva messo sul piatto 26 miliardi di dollari. La cifra investita per la società attiva nell’intelligenza conversazionale sanitaria conferma quanto alta sia l’attenzione del mercato verso un settore in continua espansione. E d’altra parte è stata proprio Microsoft la prima società ad aver avuto accesso al Gpt-3, l’algoritmo elaborato da OpenAi che ha sviluppato un modello di linguaggio senza precedenti, capace di interpretare e scrivere in maniera chiara e corretta qualunque cosa. Da una semplice email a un articolo di giornale. Al punto che, simile a quanto teorizzato nel test di Turing, chi legge un articolo di giornale scritto da Gpt-3 non è in grado di capire se il testo è prodotto da un uomo o una macchina.

Oggi l’attenzione verso il linguaggio sviluppato dall’intelligenza artificiale è continuamente sotto i riflettori: le aziende fanno a gara per integrare nei loro sistemi i migliori algoritmi, a volte anche senza aver ben chiaro come utilizzarli al meglio. Ma se adesso dialogare con un chatbot ci sembra normale o quasi è merito dal lavoro e delle ricerche iniziate 70 anni fa da un gruppo di scienziati visionari.

Il test di Turing
E d’altra parte non è certo un caso che il test di Turing si chiami così: è stato Alan Turing il padre dei moderni computer, nel 1950, a teorizzare un criterio per determinare se una macchina sia in grado di pensare come un essere umano. Nell’articolo apparso su Mind, Turing prende spunto dal “gioco dell’imitazione” a tre partecipanti: Bob, Alice, e una terza persona, Charlie, che non vede gli altri due e può solo stabilire tramite una serie di domande chi sia l’uomo e chi la donna. Bob, invece, dovrebbe ingannare Charlie e portarlo a fare un’identificazione errata, mentre Alice dovrebbe aiutarlo a mantenere una identificazione corretta. Turing si basa quindi sull’ipotesi che a un certo punto una macchina si sostituisca a Bob: se la percentuale di volte in cui Charlie indovina chi sia l’uomo e chi la donna è simile prima e dopo la sostituzione, allora l’algoritmo dovrebbe essere considerato intelligente.

L’aspetto stupefacente del test è nell’aver teorizzato una capacità di linguaggio simile a quella dell’uomo, prima ancora che nascessero dei veri computer. E il semplice fatto che Turing si sia concentrato sulle parole anziché sulla potenza di calcolo chiarisce quale sia l’importanza e la difficoltà di sviluppare un’intelligenza artificiale del genere. E spiega indirettamente come mai 70 anni fa si immaginasse che all’inizio del nuovo millennio tutte le macchine avrebbero superato agevolmente il test, mentre in realtà siamo ancora lontani dall’ottenere un risultato del genere.

Da Eliza ad Alice e il grande inverno
Nel 1956 per la prima volta alcuni ricercatori parlano di intelligenza artificiale, ma dopo una fiammata iniziale, l’interesse lentamente viene meno. Certo nel 1966 arriva Eliza, il primo chatbot della storia che simula un terapista utilizzando le stesse parole del proprio interlocutore, ma non accende gli entusiasmi. Inizia così quello che in gergo si chiama il lungo inverno dell’intelligenza artificiale: un periodo di stanca lungo quasi 30 anni e interrotto solo sporadicamente da esperimenti più o meno fallimentari come Parry nel 1972 o Dr Sbaitso nel 1992.

Nel 1995 arriva la prima svolta con Alice un software creato con Aiml, l’Artificial Intelligence Markup Language, studiata per imitare un linguaggio naturale. Non è una rete neurale capace di imparare autonomamente, ma un sistema che segue un percorso preordinato. È quindi capace di rispondere a tutte le domande pensate dai programmatori, ma non può uscire dal sentiero tracciato. Ed è quindi un ottimo punto di partenza per i bot più semplici.

L’accelerazione sull’intelligenza artificiale arriva negli ultimi 10 anni. Nel 2011 Watson, il sistema di IBM batte in diretta televisiva i campioni americani di “Chi vuole essere milionario”, una vittoria che ha un grande eco, ma non eccezionale considerato che il software aveva di fatto immagazzinato l’informazione presente su Internet.

Il fallimento di Tay e la svolta di Bert
Nel 2016 è la volta il Tay, l’account Twitter creato da Microsoft per sperimentare l’intelligenza artificiale: era programmato per rispondere in modo automatico a chiunque gli scrivesse. L’obiettivo era che Tay rispondesse in modo naturale, imparando da quello che leggeva in altre conversazioni e che gli veniva scritto. È stato un fallimento totale: in poche ore Tay ha iniziato a scrivere cose razziste, insultare e negare l’olocausto. Colpa dei troll, probabilmente, ma anche degli errori di programmazione della società. Forse anche della fretta di arrivare primi.

La svolta che si avvicina alle previsioni di Turing arriva nel 2018 con Bert, un modello di deep learning pre-addestrato su molti libri e sull’intera Wikipedia inglese per apprendere il linguaggio naturale. Un passo avanti decisivo che ha spianato la strada a Gpt-3 e un modello che utilizziamo anche noi di Indigo adattandolo al linguaggio italiano. Abbiamo infatti rilasciato una versione più leggera, BERTino, e stiamo continuando nell’intento di rilasciare versioni di BERT sempre più accessibili e facili da utilizzare. La corsa degli ultimi anni è quindi frutto di anni di studi e ricerche che si sono concretizzati grazie ai recenti investimenti, alimentati dal crescente interesse sugli algoritmi.

Quale sfida dobbiamo affrontare oggi?
I passi avanti sono stati tanti, e oggi l’intelligenza artificiale è integrata praticamente in ogni nostra attività quotidiana. Ma oggi noi operatori del settore abbiamo un’altra sfida. Non solo stare al passo con le innovazioni quotidiane dal punto di vista del business, ma soprattutto sapere governare e guidare uno sviluppo sano ed etico dell’intelligenza artificiale: affinché sia inclusiva e mai divisiva.

Fonte foto Pixabay_geralt

A cura di Enrico Bertino, Co-founder & Chief AI Officer di Indigo.ai



Contenuti correlati

  • Mecolpress pressa
    AI generativa per le presse Mecolpress per lo stampaggio a caldo

    Mecolpress, punto di riferimento nel settore della produzione di presse per lo stampaggio a caldo di leghe metalliche, ha scelto Userbot.AI, l’agente di intelligenza artificiale generativa made in Italy, per agevolare il Service nelle attività di manutenzione...

  • Le previsioni di Unit 42: Il 2025 sarà l’anno della disruption

    Sam Rubin di Unit 42 di Palo Alto Networks analizza e condivide le tendenze di cybersecurity del 2025: “Anno delle interruzioni delle attività”, è questo il termine che contraddistinguerà il 2025, che si presenta come un periodo...

  • SAS Hackathon 2024, un’italiana tra i vincitori

    SAS ha annunciato la conclusione del SAS Hackathon 2024, l’evento globale dove data scientist, developer, data analyst, data lovers, tech expert, professionisti e professioniste di ogni settore si sfidano per creare soluzioni innovative a problemi umanitari e...

  • Panasonic Connect Blue Yonder AI
    Soluzioni innovative per la supply chain con le soluzioni AI di Panasonic Connect

    La nuova divisione europea di ricerca e sviluppo di Panasonic Connect collabora con clienti e partner per creare soluzioni innovative per la supply chain. Lavorando a stretto contatto con la controllata di Panasonic, Blue Yonder, la divisione...

  • Farnell ispira il settore con Top Tech Voices

    Farnell ha lanciato una nuova serie di interviste, Top Tech Voices, che con la partecipazione di figure di spicco nel settore tecnologico mettono in evidenza le ultime tendenze tecnologiche con le concezioni più innovative. Nei sei episodi...

  • ally Consulting Paolo Aversa Transizione 5.0 AI
    L’importanza della AI in Transizione 5.0 per il manifatturiero con ally Consulting

    Il Piano Transizione 5.0 rappresenta una svolta cruciale per il sistema industriale italiano. A sostenerlo è Paolo Aversa, managing director di ally Consulting. Ancora in fase di definizione, questo piano potrebbe sostituire il precedente 4.0, con l’intento...

  • Prysmian migrazione cloud AI generativa SAP
    Infrastruttura cloud e AI generativa con SAP per Prysmian

    In soli quattro mesi, Prysmian, azienda di punta a livello mondiale nella produzione, fornitura e progettazione di sistemi in cavo e accessori per le telecomunicazioni e l’energia, ha aggiornato e migrato l’intera infrastruttura IT del Gruppo sul...

  • Scopri tutto il potenziale di pylon vTools di Basler

    In campo della visione artificiale, pylon vTools di Basler offre funzioni avanzate di elaborazione e analisi delle immagini, basate su algoritmi classici e di intelligenza artificiale. Grazie a un’interfaccia intuitiva, è possibile creare pipeline robuste per applicazioni...

  • Mercato automotive: previsioni per il 2025

    Il settore dell’automotive è vicinissimo a una trasformazione epocale. Guidata da una convergenza di fattori – incessanti progressi tecnologici, mutevoli esigenze dei consumatori e crescente consapevolezza dell’impatto ambientale – il settore automotive del prossimo futuro, quello del...

  • Mitsubishi Electric presenta l’integrazione delle piattaforme Iconics ed EcoAdviser

    Mitsubishi Electric ha presentato l’integrazione delle piattaforme Iconics ed EcoAdviser, soluzioni all’avanguardia progettate per rivoluzionare la gestione dell’energia grazie alle potenzialità dell’intelligenza artificiale. Questa combinazione ha lo scopo di aumentare l’efficienza operativa, promuovere la sostenibilità e permettere...

Scopri le novità scelte per te x