ricerca

Oltre le Leggi della Robotica

Ovvero, come concepire e codificare nuove regole di comportamento per i robot, che consentano di superare i limiti delle fantascientifiche leggi asimoviane. Con qualche (non trascurabile) perplessità.

Google sta proponendo una sua propria versione aggiornata delle Tre Leggi della robotica di Asimov, e sta lavorando al cosiddetto fungo di emergenza globale… Crediti immagine: Rog01, Flickr

TECNOLOGIA – Per chi si occupa di robotica, ma anche per qualunque appassionato di fantascienza, le Leggi di Asimov sono decisamente un must: si tratta, infatti, degli enunciati fondamentali che sanciscono i principi di base del comportamento di ogni automa costruito dall’uomo. E che dovrebbero rendere sicura l’interazione, a qualunque livello, tra i robot e l’umanità.

Vediamo anzitutto la loro formulazione:

  1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
  3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.

Come riportato in questa notizia, proprio allo scopo di evidenziare quanto sia delicata la questione del “codice etico” che dovrebbe essere incorporato nel DNA di un qualsiasi automa, Alexander Reben, artista e studioso di robotica, ha sviluppato un manipolatore robotico che infligge, in modo casuale, un danno a un essere umano. Non si tratta di un danno grave, essendo una semplice puntura di spillo, ma l’esperimento evidenzia l’ovvio risultato che è possibile costruire automi che, pur essendo concepiti per finalità del tutto diverse, possono in talune condizioni “decidere” di arrecare un danno ad un umano. Infrangendo, in questo caso, la Prima Legge.

Alla luce di ciò, e tenendo conto dello spaventoso trend di crescita nel settore della robotica, siamo sicuri che si possa star tranquilli che dei semplici enunciati, scritti nei lontani anni ’40, per di più in un’opera fantastica, siano sufficienti a garantire una così complessa finalità?

In estrema sintesi, le tre leggi stabiliscono una gerarchia di valori a cui gli automi devono sottostare: prime vengono sicurezza e incolumità degli umani, poi l’ubbidienza agli ordini degli umani stessi, e infine l’autoconservazione.

Applicare alla lettera tali leggi, al giorno d’oggi, può risultare un affare per nulla semplice. Proviamo a elencare le principali argomentazioni contrarie alla loro applicabilità:

La prima legge è anacronistica: nello scenario attuale, diverse organizzazioni militari di vari paesi si stanno munendo di automi da impiegare in missioni di monitoraggio e sorveglianza, come supporto logistico, o come vere e proprie armi da combattimento. Quindi, esistono diversi casi di robot progettati appositamente per produrre danni agli esseri umani. Inoltre, quand’anche tale legge fosse rispettata in pieno, i robot non possono essere infallibili nel rilevare la presenza umana, ragion per cui potrebbero produrre danni anche solo accidentalmente

Come si può notare, il problema principale della Prima Legge è che la sicurezza degli umani viene vista unicamente dal punto di vista del robot, come se quest’ultimo avesse una coscienza e una autonomia decisionale che invece non sono affatto scontate, oltre che tecnicamente molto ardue da realizzare. Al momento, infatti, un automa è nient’altro che un prodotto, e come tale non si può considerare responsabile delle proprie azioni, visto che chi lo ha realizzato dovrebbe esserlo.

La seconda legge è ambigua: quale tipo di linguaggio dovrebbe utilizzare un essere umano per trasmettere gli ordini ad un robot? E che garanzia c’è che il robot comprenda correttamente il senso dei comandi che l’umano gli impartisce?

Per fare un esempio, supponiamo che il comando dell’umano sia: ”Voglio che tu mi organizzi a tutti i costi una gita al mare entro oggi pomeriggio”, e che sia indirizzato ad un robot maggiordomo.

L’azione risultante potrebbe essere noleggiare un’auto, senza badare al costo, anziché prenotare un pullman con una spesa molto più contenuta, solo perchè per il robot il pomeriggio inizia, convenzionalmente, alle 14, e l’ultimo pullman raggiungerebbe la destinazione alle 14:05.

E perché ha interpretato letteralmente una espressione colloquiale (“a tutti i costi”).

La terza legge è incompleta: un robot dovrebbe provare a salvaguardare la propria integrità, salvo che tale condotta non contraddica un ordine o possa arrecare un danno ad un essere umano.

Supponiamo, però, che l’ordine sia davvero ottuso, ossia, ad esempio, restare assolutamente immobile in attesa di un ulteriore comando. Se frattanto sopraggiunge un mezzo che può urtarlo, producendogli un danno, l’automa non potrebbe muoversi, per non contravvenire alla Seconda Legge che è prioritaria. Ergo, subirebbe un danno del tutto evitabile se gli fosse lasciata la libertà di derogare temporaneamente all’ordine ricevuto.

Per concludere la disamina:

  • Non sono ben chiare le definizione di “umano” e “robot” nelle Tre Leggi. E questo fatto è una fonte di potenziali abusi.
  • Seppure fossimo in grado di codificare le leggi di Asimov in ogni automa, esso potrebbe violarle in modo inconsapevole
  • Obbedire simultaneamente alle Tre Leggi può portare alla creazione di contraddizioni logiche che determinerebbe potenziali deadlock nell’unità di controllo del robot o un comportamento instabile.

Per questi e molti altri motivi, Google sta proponendo una sua propria versione aggiornata delle Tre Leggi, come descritto in questo articolo. Partendo proprio dalle questioni più critiche relative all’interazione tra una macchina e un umano. Ad esempio, la necessità di prevedere ed evitare gli effetti collaterali del proprio operato. Oppure, la capacità di operare correttamente anche se l’ambiente è molto diverso da quello in cui si è effettuato un training. E, infine, la capacità di sviluppare una sorta di senso critico, nei confronti di ordini ottusi, insensati, inutili o contraddittori.

Per non sbagliare, Google ha anche pensato ad una sorta di fungo di emergenza globale, ossia un dispositivo che, se l’evoluzione dell’operato delle macchine dovesse diventare non più controllabile, semplicemente ne spegnerebbe all’istante le sorgenti di alimentazione. Sperando che, frattanto, le macchine non abbiano pensato a un generatore di backup. Così, tanto per non obbedire ad un ordine divenuto frattanto, per loro, inutile ed obsoleto.

Leggi anche: Facebabilonia, o la nuova Torre di Babele

Pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   

Condividi su
Gianpiero Negri
Laureato in Ingegneria Elettronica, un master CNR in meccatronica e robotica e uno in sicurezza funzionale di macchine industriali. Si occupa di ricerca, sviluppo e innovazione di funzioni meccatroniche di sicurezza presso una grande multinazionale del settore automotive. Membro di comitati scientifici (SPS Italia) e di commissioni tecniche ISO, è esperto scientifico del MIUR e della European Commission e revisore di riviste scientifiche internazionali (IEEE Computer society). Sta seguendo attualmente un corso dottorato in matematica e fisica applicata. Appassionato di scienza, tecnologia, in particolare meccatronica, robotica, intelligenza artificiale e matematica applicata, letteratura, cinema e divulgazione scientifica, scrive per Oggiscienza dal 2015.