IN EVIDENZA

Scimpanzé, oranghi e (in futuro) robot: quali diritti devono avere?

Il dibattito sui diritti delle grandi scimmie anticipa quello sui diritti dei robot dotati di intelligenza artificiale.

4038313726_6cdc410cb7_zAPPROFONDIMENTO – Tommy è uno scimpanzé, Sandra è una orango. Sandra è una “persona non umana”, Tommy no. Le recenti sentenze (una statunitense, l’altra argentina) aprono degli interrogativi enormi, e sono interessanti sotto due punti di vista. Da una parte, sicuramente, sono la frontiera dei diritti degli animali – almeno per quanto riguarda quel gruppo chiamato “delle grandi scimmie”. Dall’altra, in maniera indiretta, ma se vogliamo più profonda, forse rappresentano l’inizio di un dibattito che diventerà centrale nei prossimi decenni: se ammettiamo che esistano intelligenze uguali (per grado di profondità) ma diverse (per origine, struttura e funzionamento) dalle nostre, che diritti dovremo dare alle macchine dotate di intelligenza artificiale?

Alcune necessarie precisazioni

Partendo dall’inizio, ossia dalle due sentenze sopra menzionate, è bene chiarire il contesto in cui sono state prodotte. Innanzitutto, entrambe non sono passate in giudicato, ovvero entrambe verosimilmente verranno portate in appello. Soprattutto, però, emergono da tradizioni giuridiche fondamentalmente diverse. Tommy, lo scimpanzé di New York, è stato giudicato da una corte di common law, un ordinamento giuridico tipicamente anglosassone in cui le sentenze dei giudici hanno un “potere” molto più forte rispetto alle leggi di origine parlamentare. Sandra, invece, vive in un paese di civil law (essendo di tradizione latina), in cui le leggi hanno un “maggior potere” rispetto alle sentenze dei giudici ordinari (più influenza hanno invece le sentenze delle corti supreme, per questo è stato necessario sottolineare che la sentenza di Sandra non è ancora passata in giudicato).

Normalmente, specialmente in ambito di nuovi diritti e/o di diritti su materie scientifiche gli ordinamenti di common law sono più aperti (si pensi, ad esempio, alla brevettabilità dei geni o gli ogm), proprio perché spesso non vincolati alla legge dello stare decisis (ovvero che il giudice deve rispettare le sentenze precedenti che trattano i medesimi casi – le stesse fattispecie) essendo appunto nuovi diritti, mentre nel diritto continentale si deve passare per la macchina parlamentare – con le inevitabili dispute etiche e ideologiche. Tuttavia stavolta, come richiamato esplicitamente dalla sentenza di New York, è avvenuto l’opposto: il common law si è chiuso in una visione se si vuole ottocentesca nel dare nuovi diritti. Questo perché si è toccato il cuore pulsante di tutto il sistema dei diritti civili: la definizione di persona.

Chi è una persona?

Sebbene il dibattito su “chi è una persona” e chi non lo è appare una questione molto moderna (si pensi agli embrioni), è bene ricordare che fino a pochi decenni fa ci si interrogava ancora se gli esseri umani ridotti in schiavitù fossero oggetti di proprietà del proprio padrone o delle vere e proprie persone. Fortunatamente, almeno dal punto di vista legislativo (e purtroppo per migliaia di persone solo da quel punto di vista), nessun essere umano è al momento legalmente considerato un oggetto (l’ultimo paese ad aver abolito la schiavitù è la Mauritania nel 1981).

Ma allora, una “persona” è necessariamente un essere umano? Questa domanda chiave ha trovato, negli ultimi giorni, due risposte discordanti. La sentenza di New York dichiarava che:

Not surprisingly, animals have never been considered persons for the purposes of habeas corpus relief, nor have they been explicitly considered as persons or entities capable of asserting rights for the purpose of state or federal law … the ascription of rights has historically been connected with the imposition of societal obligations and duties. Reciprocity between rights and responsibilities stems from principles of social contract… Needless to say, unlike human beings, chimpanzees cannot bear any legal duties, submit to societal responsibilities or be held legally accountable for their actions. In our view, it is this incapability to bear any legal responsibilities and societal duties that renders it inappropriate to confer upon chimpanzees the legal rights – such as the fundamental right to liberty protected by the writ of habeas corpus – that have been afforded to human beings.

Dunque, per essere considerate “persone” non importa tanto essere degli umani, quanto semmai poter offrire alla società dei doveri e obblighi sociali in cambio della protezione e del godimento dei propri diritti.

La sentenza argentina che riconosce l’orango come persona non umana, invece, supera questa visione strettamente contrattualista e – implicitamente – assimila la protezione dell’animale a quella dei minori negli ordinamenti giuridici (tecnicamente, sono persone fisiche che hanno capacità giuridica ma non capacità di agire, per cui hanno bisogno di un tutore).

Insomma, i non umani che comunque esprimono un certo grado di intelligenza, sono persone o dei semplici oggetti (magari da tutelare un po’ di più)? Il dibattito, che fin qui può sembrare un po’ tecnico, svela tutta la sua splendida complessità se lo proiettiamo in un futuro prossimo: i robot dotati di intelligenza artificiale (che, forse, supereranno anche le capacità cognitive delle grandi scimmie) saranno considerati semplici macchine o persone non umane?

Schiavismo tecnologico

Il dibattito sui confini etici dell’intelligenza artificiale sta assumendo una consistenza degna di interesse. Sebbene al momento si possa parlare solo di realtà aumentata (o, come alcuni preferiscono chiamarla, intelligenza aumentata), certo è che gli sforzi verso dei robot dotati di un certo grado di intelligenza si stanno moltiplicando. Le sentenze su Tommy e Sandra, quindi, potranno in futuro rappresentare dei precedenti, per questo è necessario capirne le implicazioni – al di là del pur legittimo dibattito sui diritti degli animali. Il punto di partenza, per quanto riguarda l’intelligenza artificiale, è: un robot potrà mai essere considerato “vivo”?
La scienza, a tutt’oggi, non è in grado di dare una risposta. Qualsiasi definizione di vita si scontra con l’incredibile spettro che la biologia ci svela mano a mano che la studiamo più in profondità. Nemmeno i ricercatori della Nasa, nel cercare vita al di fuori del nostro pianeta, hanno ben chiaro che cosa stiano cercando. Dunque, in linea di principio, un robot intelligente, in grado di evolversi ed eventualmente replicarsi si può considerare vivo. E, quindi, se si può considerare vivo, lo si può considerare una persona non umana? Asimov, con un incredibile sforzo di creatività, ha tracciato una base etica (le tre leggi della robotica) per lo sviluppo dell’intelligenza artificiale. Ma, considerando le opinioni politiche e l’attivismo progressista dell’autore, paradossalmente tali leggi vanno più a descrivere una condizione di schiavismo in cui il libero arbitrio, anche nel fare del male, è limitato dall’intangibilità dei propri creatori, ovvero gli umani. E quindi, in sostanza, Asimov descrive un’intelligenza artificiale inscritta in quella visione contrattualistica richiamata dalla sentenza di New York, con un evidente paradosso: i robot di Asimov, specularmente allo scimpanzé Tommy, hanno solamente doveri, ma non hanno diritti e poiché le due cose devono coincidere, non si possono considerare persone. Sono sostanzialmente schiavi – una prospettiva emersa anche nella interessante riflessione di Gwynne Dyer:

In uno scenario reale la salvezza è rappresentata dal fatto che l’intelligenza artificiale non comparirà all’improvviso, accendendo un interruttore. Sarà costruita in modo graduale nel corso di decenni, e questo ci dà il tempo sufficiente per introdurre una sorta di senso morale nella programmazione di base, simile alla moralità innata della maggior parte degli esseri umani… Non sarebbe male come inizio, anche se prima o poi tra gli esseri umani ci si chiederà se le macchine dotate di coscienza debbano essere assoggettate per sempre a una forma di schiavitù.

Se invece togliamo i confini etici delle tre leggi della robotica, e dunque lasciamo agire liberamente la forza creatrice degli algoritmi genetici, arriveremo a parificare un robot a Sandra, l’orango persona non umana che ha tutele simili a un umano minorenne. Entrambe queste soluzioni comunque sono evidentemente basate su grosse contraddizioni.

Robot assassini

Prendiamo un caso verosimile: un robot, dotato di intelligenza artificiale abbastanza evoluta, uccide una persona. Se, come nel caso della sentenza di New York, il robot non è altro che un oggetto impazzito, la colpa dell’omicidio sarà di chi ha omesso la vigilanza necessaria per impedire il fatto. Verosimilmente, a pagare sarebbe un’assicurazione – come nel caso classico dell’incidente d’auto dovuto ad un malfunzionamento del mezzo. Ma quale assicurazione (o meglio, con quale premio) si prenderebbe l’onere di quantificare un possibile danno che, di per sè, non è quantificabile? In altre parole, come fa un’assicurazione a prevedere una statistica di casi di un oggetto che è dotato di una propria intelligenza, e dunque, intrinsecamente, di una propria libertà? L’auto può avere dei guasti in una casistica quantificabile, ma la libertà di un robot intelligente di disobbedire alle leggi di Asimov appare difficilmente misurabile. Prendiamo ora invece il caso in cui il robot omicida fosse considerato persona non umana (come Sandra). Le cose, se possibile, si complicano maggiormente. Infatti, in questo caso a rispondere dei danni del robot sarebbe il suo tutore: quale umano, però, sarebbe disposto a comprare una macchina incontrollabile che è potenzialmente in grado di mandarlo in prigione? E inoltre, se un robot persona non umana non uccidesse un essere umano, ma un altro robot persona non umana? Anche in questo caso, quale umano si assumerebbe il rischio?

Un paradosso quasi irrisolvibile

Non sembra esserci alcuna soluzione. O meglio, la soluzione c’è e risiede nella libertà primitiva dell’uomo, ovvero il libero arbitrio: che l’umanità adotti una visione di negazione dei diritti, come nel caso di Tommy, o di estensione di tali diritti, come nel caso di Sandra, sicuramente dovrà fare una scelta. Tale scelta dovrà essere presa in breve tempo, perchè gli investimenti stanno aumentando e le tecnologie, tradizionalmente, ci hanno sempre colto legalmente impreparati. Insomma, dobbiamo trovare una strada tra due opzioni evidentemente non ottimali, affidandoci quindi puramente al nostro arbitrio di essere umani. A proposito: non è proprio lo stesso libero arbitrio al centro del dibattito tra New York e Buenos Aires, tra Tommy, Sandra e i robot intelligenti potenzialmente assassini?

@gia_destro

Pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   
Crediti immagine: Bruno Cordioli, Flickr

Condividi su