AO_410

NOVEMBRE-DICEMBRE 2018 AUTOMAZIONE OGGI 410 123 rete neurale può essere di tipo supervi- sionato, non supervisionato o hebbiano. Nell’apprendimento supervisionato la rete riceve un insieme di dati per l’addestra- mento (training set) composto da molte coppie significative di valori (input/output atteso): la rete riceve l’input e calcola l’ou- tput corrispondente quindi continua amo- dificare i pesi per minimizzare l’errore dato dalla differenza tra il valore restituito dalla rete (output della rete) e l’output atteso. Nell’apprendimento non supervisionato la rete raggruppa gli input ricevuti in base a criteri di similarità senza eseguire confronti con output noti. Nell’apprendimento heb- biano (D. Hebb) l’attivazione simultanea di due neuroni connessi determina la modifica dei pesi delle connessioni che li uniscono, in modo da aumentare la pro- babilità che uno dei due neuroni si attivi quando l’altro si attiva: si rafforza la con- nessione tra due neuroni che si attivano contemporaneamente. Le reti neurali artificiali per approssimare funzioni Le reti neurali sono utili strumenti per l’approssimazione di fun- zioni. In figura 3 è rappresentata una rete neurale artificiale con unità di input, unità interne o nascoste (hidden) e di output. Come già anticipato, nell’apprendimento supervisionato gli input e gli output attesi vengono considerati a coppie e i pesi progressivamente corretti per ridurre la differenza fra output ef- fettivi e attesi. Una rete con una profondità almeno pari a 2 può approssimare qualsiasi funzione reale: analizziamo diverse possibilità per ap- prossimare una funzione target y=f*( x ), x R d Primo caso di approssimazione con una combinazione lineare y ~ = wx +c, con w R d (vettore di dimensione d), c R quando l’input è scalare, y ~ =wx+c e l’approssimatore è una linea retta. Secondo caso di approssimazione con rete neurale feed-forward shallow (non profonda) y ~ = wg ( Wx + c )+c, con g funzione non lineare, W R hxd (matrice di dimensioni hxd) e w , c R h Le funzioni g non lineari più utilizzate sono sigmoide, tangente iperbolica o massimo: g (x) = σ (x) = 1/(1+e -x ) oppure g(x)=tanh (x) oppure g(x)=max(0,x) Fig. 3 – Rete neurale artificiale Fig. 1 e 2 – Funzioni di attivazione Fig. 1 Fig. 2

RkJQdWJsaXNoZXIy MTg0NzE=