MAGGIO 2017
AUTOMAZIONE OGGI 398
15
AO
IL PUNTO
l mese di gennaio 2017 sarà ricordato
come il periodo in cui si è verificata
un’accelerazione incredibile sugli aspetti
etici e legali relativi alla presenza e all’im-
patto dei robot nella nostra società. In
quel mese viene infatti presentato al
Parlamento Europeo il cosiddetto ‘rap-
porto Delvaux’, dal nome della relatrice,
l’eurodeputata lussemburghese Mady
Delvaux, presidente della Commissione
Giuridica del Parlamento Europeo.
Il rapporto Delvaux è particolarmente
importante perché per la prima volta
nella storia europea vengono prese in
considerazione le istanze sollevate dalle
aumentate capacità tecnologiche dei
robot e dalla loro presenza crescente
nella vita di ogni giorno. Tale scenario
fino a non molti anni fa sembrava im-
pensabile ai più, e solo qualche visio-
nario, nella letteratura o nel cinema,
pensava a una tale prospettiva. Non a
caso il rapporto Delvaux inizia proprio
richiamando miti e personaggi lette-
rari con queste parole: “considerando
che, dal mostro di Frankenstein ideato
da Mary Shelley al mito classico di Pigmalione, passando per la storia del Golem
di Praga e il robot di Karel Čapek, che ha coniato la parola, gli esseri umani hanno
fantasticato sulla possibilità di costruire macchine intelligenti, spesso androidi con
caratteristiche umane”. Il rapporto prosegue con una serie di considerazioni legate
alle problematiche sollevate dall’impatto sociale di questi nuovi scenari tecnologici,
mettendo in evidenza l’ormai impellente necessità di una regolamentazione legisla-
tiva: “considerando che l’umanità si trova ora sulla soglia di un’era nella quale robot,
bot, androidi e altre manifestazioni dell’intelligenza artificiale sembrano sul punto
di avviare una nuova rivoluzione industriale, suscettibile di toccare tutti gli strati
sociali, rendendo imprescindibile che la legislazione ne consideri le implicazioni e le
conseguenze legali ed etiche, senza ostacolare l’innovazione”.
Il rapporto Delvaux evidenzia chiaramente quali sono i rischi legati allo sviluppo e
alla diffusione delle tecnologie robotiche nella vita quotidiana: “si sottolinea che lo
sviluppo della tecnologia robotica dovrebbe mirare a integrare le capacità umane
e non a sostituirle; si ritiene che sia fondamentale, nello sviluppo della robotica e
dell’intelligenza artificiale, garantire che gli uomini mantengano in qualsiasi mo-
mento il controllo sulle macchine intelligenti; si ritiene che dovrebbe essere prestata
un’attenzione particolare alla possibilità che nasca un attaccamento emotivo tra gli
uomini e i robot, in particolare per i gruppi vulnerabili (bambini, anziani e disabili),
e si sottolineano gli interrogativi connessi al grave impatto emotivo e fisico che un
tale attaccamento potrebbe avere sugli uomini”.
E ancora: “si osserva che le possibilità di realizzazione personale che derivano
dall’uso della robotica sono relativizzate da un insieme di tensioni o rischi e dovreb-
bero essere valutate in modo serio dal punto di vista della sicurezza delle persone e
della loro salute, della libertà, la vita privata, l’integrità, la dignità, dell’autodetermi-
nazione e la non discriminazione nonché della protezione dei dati personali”.
Tutte queste considerazioni portano a formulare una richiesta forte alla Commis-
sione Europea, ovvero “di presentare una proposta di direttiva relativa a norme di
diritto civile sulla robotica”.
È significativo il fatto che il rapporto Delvaux crei per i robot la dicitura di ‘persone
elettroniche’, il che significa che essi in futuro avranno una personalità giuridica,
acquisendo pertanto diritti e doveri specifici, compreso quello di risarcire i danni
e pagare tasse e contributi. Come si può intuire, si tratta di una vera e propria rivo-
luzione che apre scenari davvero ‘fantascientifici’, riconoscendo la futura esistenza
di una condizione mai verificatasi nella storia, ovvero la convivenza di una specie
naturale (l’uomo) con una specie artificiale (i robot).
I
Il rapporto Delvaux
Alessandro Gasparetto
Comitato tecnico Automazione Oggi e Fieldbus&Networks
I
I
I