Table of Contents Table of Contents
Previous Page  86 / 100 Next Page
Information
Show Menu
Previous Page 86 / 100 Next Page
Page Background

CONTROLLO

tecnica

Novembre/Dicembre 2016

Automazione e Strumentazione

86

lità emerge, il quadro generale si fa più nitido, si scoprono nuove

relazioni tra le cose; magari non si arriverà mai a spiegare tutto

ma, come sostenne, C. F. Gauss: “Non è la conoscenza, ma l’atto

di imparare; non il possesso ma l’atto di arrivarci, che dà la gioia

maggiore”. Ma forse ai giovani studenti risulta più familiare ciò

diceva Morpheus a Nio, nel celebre film Matrix: “Pillola azzurra,

fine della storia: domani ti sveglierai in camera tua, e crederai a

quello che vorrai. Pillola rossa, resti nel Paese delle meraviglie e

vedrai quant’è profonda la tana del bianconiglio”.

La matematica del controllo

L’obiettivo di un’azione di regolazione (o di controllo) può essere

definito come quello di cercare di portare un sistema a compor-

tarsi in un modo desiderato sulla base delle misure del suo stato

attuale ed agendo in modo opportuno. Il controllore deve comun-

que, ad ogni istante e sulla base dell’informazione disponibile,

determinare il valore da attribuire alle variabili di controllo in

modo tale che l’andamento delle variabili controllate sia, mal-

grado l’influenza di disturbi imprevedibili, il più possibile simile

a quello desiderato, che può a sua volta essere una funzione del

tempo e/o di altre grandezze. Lo scopo di un buon sistema di con-

trollo è allora quello di portare a zero l’errore a regime, di farlo nel

minor tempo possibile, limitando al massimo l’entità degli scosta-

menti della variabile controllata intorno al valore di riferimento e

cercando di contenere anche le oscillazioni della variabile di con-

trollo, che si ripercuotono sugli organi di comando. Un sistema di

controllo dovrebbe essere inoltre in grado di garantire sia un buon

inseguimento dell’andamento desiderato sia una buona reiezione

dei disturbi nel più ampio ventaglio possibile di situazioni opera-

tive ovvero per il più ampio intervallo di valori dei parametri che

descrivono il processo da controllare. La ‘robustezza’ di una legge

di controllo è una misura proprio della capacità di far fronte alle

diverse condizioni di lavoro garantendo le prestazioni desiderate.

L’impostazione ‘classica’ del problema si basa su relazioni ingresso-

uscita dei sistemi dinamici che descrivono il comportamento dei

regolatori e quello dei processi, desunto dalle leggi fisiche applica-

bili al contesto (meccanico per la robotica, termodinamico e chimico

per il processo). Queste relazioni vengono efficacemente modelliz-

zate dalle funzioni di trasferimento (rappresentate nel formalismo

degli schemi a blocchi), definite come il rapporto tra la

trasformata

di Laplace

dell’uscita corrispondente a condizioni iniziali nulle e

la trasformata di Laplace dell’ingresso. Grazie all’introduzione di

questo strumento matematico (un integrale in campo complesso),

le prestazioni del sistema controllato possono essere tradotte in

requisiti sulle funzioni di trasferimento e su alcuni parametri intro-

dotti grazie ad esse. La stabilità del sistema deve venire assicurata

soddisfacendo i criteri di Nyquist o di Bode, che fanno riferimento

ai rispettivi diagrammi; per quello Nyquist si tratta di quello nel

piano complesso della funzione di trasferimento d’anello (data dal

prodotto tra quella del processo e quella del regolatore) mentre per

quelli di Bode si tratta di modulo e fase (numeri reali) della fun-

zione di trasferimento d’anello. La precisione a regime deve venire

garantita dal tipo (il numero di poli nell’origine) e dal guadagno

della funzione di trasferimento d’anello. Il buon inseguimento del

setpoint può venire perseguito attraverso una accorta scelta della

pulsazione critica (quella per cui il modulo della funzione di trasfe-

rimento d’anello vale 1) che però non deve essere nemmeno troppo

elevata per non impedire di filtrare i disturbi ad alta frequenza tipi-

camente presenti nella catena di misura. La robustezza può venire

preservata attraverso opportuni vicoli sui alcuni parametri (i margini

di fase o di guadagno) che misurano la distanza del diagramma di

Nyquist dalla regione di instabilità. La moderazione nelle escursioni

della variabile di controllo, infine, può essere ricercata mantenendo

il modulo della funzione di trasferimento del regolatore limitato per

pulsazioni superiori a quella critica. I metodi classici hanno consen-

tito di raggiungere notevoli risultati sia teorici sia applicativi; non

ultima, infatti, la standardizzazione rappresentata dai fortunati algo-

ritmi di tipo PID (Proporzionale-Integrale-Derivativo), concepiti

nell’ambito delle tecnologie pneumatiche e tuttora alla base degli

attuali sistemi elettronici di controllo. Tutto ciò è stato possibile

attraverso calcoli fatti su carta e grazie a preziosi strumenti come

il regolo calcolatore; tuttavia questo approccio rimane sostanzial-

mente limitato al caso lineare e tempo-invariante, venendo meno,

altrimenti, la possibilità di far uso di funzioni di trasferimento; arduo

estendere la trattazione ai sistemi multivariabili; complicato, infine,

stabilire criteri di ottimalità della soluzione, a causa del conflitto dei

requisiti indipendenti sulle prestazioni (tipici quelli tra rapidità e

robustezza e tra inseguimento del setpoint e reiezione dei disturbi).

L’approccio dell’impostazione ‘moderna’ si basa sul fatto che lo

stato del sistema sotto controllo contiene tutta l’informazione neces-

saria per determinare, insieme al valore futurodegli ingressi (e ovvia-

mente a quello del segnale di riferimento), il comportamento futuro

del sistema stesso. L’analisi dei sistemi dinamici (cosiddetti perché

nelle equazioni compaiono anche le derivate rispetto al tempo delle

incognite) consente di prevederne l’evoluzione e si avvale di vari

strumenti matematici come ad esempio i

teoremi di Liapunov

per

la stabilità; in condizioni lineari (e tempo-invarianti) si perviene a

calcoli sul determinante e gli autovalori delle matrici numeriche che

rappresentano il sistema dinamico. Impostando il problema attra-

verso un criterio di ottimizzazione si affronta il cosiddetto ‘controllo

ottimo’, basato in generale sulla

teoria di Hamilton-Jacobi

, a sua

volta fondata su equazioni di Eulero-Lagrange da risolvere quando

si vuole minimizzare (o massimizzare) una certa funzione soggetta

a vincoli di tipo algebrico. Nel caso di sistema lineare e funzioni di

costo di tipo quadratico, si perviene alla soluzione delle

equazioni

(differenziale nel caso t-variante o algebrica nel caso stazionario)

di Riccati

(una particolare equazione differenziale ordinaria in cui

l’incognita compare anche al quadrato). Poiché però in genere lo

stato non è disponibile, è necessario effettuarne una ‘valutazione’;

tale compito, in ambiente deterministico, viene espletato da un

‘ricostruttore’ (filtro - dello stesso ordine del sistema - dello stato

a partire dall’uscita) mentre in ambito stocastico viene svolto attra-

verso un filtro di Kalman (un ricostruttore ‘ottimo’ rispetto all’er-

rore quadratico stimato). Anche in tal caso, cercando lo stimatore

‘ottimo’ (ovvero a minima varianza dell’errore di predizione) si

ritrova l’equazione di Riccati. Attraverso l’impostazione moderna,

basata su una descrizione ingresso-stato-uscita del sistema, risulta

più agevole affrontare problemi di controllo multivariabile e/o

non lineare e anche incorporare nel problema eventuali relazioni

di vincolo sul valore ammissibile di alcune variabili in gioco (di