AO_438

Tutorial AUTOMAZIONE OGGI 146 | MAGGIO 2022 AUTOMAZIONE OGGI 438 menti nello spazio delle feature (classificazione k-neighbors, clustering k-means, Dbscan). Un aspetto della branca logica dell’AI che trova ampia applicazione nella moderna concezione del machine learning è quello degli alberi deci- sionali. Oltre che negli algoritmi di ricerca, nel problem solving e nel ragionamento induttivo, queste strutture vengono impiegate per svol- gere task di regressione, classificazione e cluste- ring. La costruzione di un albero di regressione passa attraverso la definizione delle soglie ot- timali ai fini della minimizzazione dell’errore commesso nell’approssimazione con i livelli as- sociati a ciascun ramo dell’albero (tipicamente la somma dei quadrati dei residui, SSR). Gli alberi di classificazione, per i quali non sono in genere disponibili valori sumerici con cui valutare l’SSR, richiedono il calcolo di un parti- colare indice prestazionale (ad esempio l’indice di purezza di Gini) per tutte le possibili scelte di diramazione a un certo livello. Ad essere scelto, ad ogni livello, sarà la diramazione con il maggior grado di purezza, fino al raggiungi- mento del limite imposto dal numero minimo di elementi per foglia. Le scelte di un albero di classificazione possono essere rappresentate da un partizionamento nello spazio delle fea- ture: linee nello spazio 2D, piani in quello 3D, e iperpiani in generale. Quando è possibile de- finire un concetto di vicinanza tra gli elementi nello spazio delle feature, si può ricorrere agli algoritmi di classificazione e clustering basati sulla distanza. Ad esempio la classificazione k- neighbor permette di classificare un elemento, e più in generale ogni punto dello spazio delle feature, in base a quale sia la classe dominante tra i k punti più vicini del dataset di training. Al- goritmi di clustering che utilizzano la distanza sono l’algoritmo k-means a Dbscan. Modelli lineari e reti neurali Nell’ambito degli spazi vettoriali lineari, oltre alla regressione lineare con il metodo dei mi- nimi quadrati in spazi vettoriali lineari, hanno riscontrato grande successo gli algoritmi sup- port vector machine (SVM) e la loro genera- lizzazione per trattare confini decisionali non lineari. Il metodo dei vettori di supporto è un metodo algebrico che non solo trova l’iper- piano di demarcazione del confine decisio- nale (una retta, nel caso bidimensionale), ma ne massimizza anche la distanza dagli insiemi di vettori delle due classi. Il successo delle macchine SVM è che possono essere impiegate per classificare insiemi di punti non linearmente separabili. La tecnica può infatti essere generalizzata a confini non lineari per mezzo del cosiddetto ‘trucco del kernel’, che consiste nell’applicare una trasfor- mazione non lineare, introducendo una nuova dimensione che trasporta i punti in uno spazio dove sono separabili da un iperpiano. Il ‘trucco’ risiede nel fatto che l’algoritmo è computazio- nalmente efficiente perché il numero di opera- zioni è enormemente ridotto dalla dipendenza dalla sola funzione kernel. La flessibilità maggiore nel delineare i con- fini decisionali si trova però nel campo delle reti neurali. Anche se è pur vero che il singolo percettrone, che effettua una somma pesata e ‘tarata’ dalla funzione di attivazione dei valori che riceve in ingresso, è in grado di produrre confini decisionali lineari: già una semplice rete neurale non profonda (tecnicamente un percettrone multistrato) è in grado di produrre confini che vanno dalla spezzata poligonale aperta fino a figure non convesse e anche non semplicemente connesse. L’accuratezza nella classificazione (e anche nella regressione) delle reti neurali aumenta considerevolmente con le reti neurali pro- fonde che sono alla base del deep learning. Reti neurali convolutive (CNN), ricorsive, ricor- renti (RNN) e generative avversarie (GAN) sono alla base di molti dei più eclatanti successi dell’intelligenza artificiale degli ultimi anni. Le reti neurali profonde, inoltre, si prestano all’implementazione di tecniche di apprendi- mento con rinforzo che sono il gateway verso il mondo degli agenti intelligenti evoluti. Bibliografia » Russell, Norvig, “Artificial Intelligence: A Modern Approach” 4a ed., 2021 Prentice Hall » James, Witten, Hastie, Tibshirani, “An Intro- duction to Statistical Learning with Appli- cations in R” 2a ed., 2021 Springer. » Hastie, Tibshirani, Friedman, “The Ele- ments of Statistical Learning: Data Mining, Inference, and Prediction” 2a ed., 2020 Springer. » Shalev-Shwartz, Ben-David, “Understan- ding Machine Learning: from Theory to Algorithms”, 2014 Cambridge University Press. » Watt, Borhani, Katsaggelos, “Machine Le- arning Refined: Foundations, Algorithms, and Applications” 2a ed., Cambridge Uni- versity Press, 2022. I confini decisionali di un percettrone sono limitati a funzioni lineari (rette, piani, iperpiani). Ma già con le più semplici reti neurali (percettroni multistrato) è possibile stabilire confini di varia forma, che includono figure convesse aperte o chiuse, figure non convesse e anche regioni non semplicemente connesse

RkJQdWJsaXNoZXIy Mzg4NjYz