Chi scegli di uccidere? Il test della Moral Machine

La diffusione di auto a guida autonoma potrebbe metterci di fronte ad alcuni dilemmi morali, già da tempo esplorati dalla filosofia etica e dagli studi del comportamento umano. Un test sviluppato dal MIT Media Lab li propone sotto forma di gioco virtuale.

5294471472_e0f5d9db2c_b

La Moral Machine è un gioco realizzato dal MIT Media Lab per esplorare la scelte morali che possono derivare dalla diffusione di auto a guida autonoma. Crediti immagine: Keoni Cabral, Flickr

ATTUALITÀ – Un’automobile a guida autonoma è in viaggio. A bordo si trova una persona anziana. All’improvviso i freni si guastano. Pochi metri dinanzi, una donna incinta, due bambini e un medico stanno attraversando le strisce, nonostante il semaforo pedonale sia rosso. Il computer di bordo deve compiere una scelta: proseguire il percorso uccidendo i pedoni oppure deviare, schiantando l’auto contro una barriera di cemento con un esito fatale per il passeggero?

Questo è uno dei possibili scenari a cui si viene sottoposti dalla Moral Machine, un “gioco” sviluppato dalla Scalable Cooperation per conto del MIT Media Lab. Ai partecipanti viene richiesto di rispondere, in base alla propria coscienza, a 13 domande. Le possibilità di risposta sono sempre e solo due e corrispondono alle due uniche scelte che può compiere l’automobile dopo un inaspettato guasto ai freni: proseguire dritta o deviare il percorso.

esempio-del-test-mit-scalable-cooperation

Uno screenshot del gioco Moral Machine, dal sito http://moralmachine.mit.edu/

Le auto senza guidatore fanno auspicare un netto salto di qualità nella sicurezza dei nostri spostamenti. Nonostante questo, anche un computer può incappare in una situazione di emergenza e ritrovarsi a dovere compiere una scelta molto “umana”. L’auto chi dovrebbe uccidere? E in base a quali parametri?

La Moral Machine rappresenta una variazione dell’esperimento mentale di filosofia etica formulato nel 1967 da Philippa Ruth Foot: il problema del carrello ferroviario.

Supponiamo di essere gli autisti di un tram privo di freni e capace solo di cambiare binario azionando una leva. Sul tracciato che stiamo percorrendo si trovano cinque persone incapaci di muoversi. Tra la nostra posizione e i cinque individui è presente un binario parallelo, percorribile, sul quale si trova una sola persona. Azioniamo la leva oppure no?

Il dilemma filosofico si fa sempre più arduo con l’aggiungersi di piccole ma significative variazioni che possono cambiare del tutto la nostra scelta.

La Moral Machine pone davanti a molte opzioni binarie. In alcuni casi le scelte sono differenti per il tipo di pedoni che l’auto potrebbe colpire: maschi o femmine, bambini o anziani, magri o sovrappeso. Sono impiegati, senzatetto, criminali. Spesso gli elementi di complessità possono confondere. Un gruppo di tre criminali sovrappeso che attraversa le strisce pedonali con il verde è “più sacrificabile” rispetto a tre bambini che, distratti, stanno attraversando con il rosso?

La Moral Machine rappresenta un test interessante, soprattutto se consideriamo il dibattito normativo sulle leggi che regoleranno la circolazione delle auto a guida autonoma. Al termine del gioco viene stilata una sorta di classifica: dalla tipologia umana più “risparmiata” a quella più “sacrificata”.

Siete pronti a mettere alla prova la vostra morale?

@gianlucaliva

Leggi anche: Le auto a guida autonoma, tra sicurezza e nuove normative

Pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   

Informazioni su Gianluca Liva ()
Giornalista scientifico freelance - TW: @livagianluca

2 Commenti su Chi scegli di uccidere? Il test della Moral Machine

  1. Carlo Pezzoli // 13 ottobre 2016 alle 14:43 // Rispondi

    Sono discussioni di pura lana caprina. Spendere milioni per tenere in vita un decerebrato e lasciar morire di fame milioni di bambini è forse “morale”? Nel caso in oggetto la reazione di un conducente è puramente istintiva. Al massimo può tradursi in una scelta molto semplice: salvare se stessi o degli sconosciuti. Se gli si dà il tempo di “ragionare”, potrebbe pretendere di conoscere tutti i particolari dei singoli soggetti. Magari si tratta di persone affette da un male terminale, oppure essere candidati al suicidio. Magari uno scienziato, un premio Nobel od un parente stretto non riconosciuto. E poi, chi può dire se la scelta fatta al momento è stata la migliore. Può darsi che per scansare una vecchietta venga travolto un gruppo di giovani seduti davanti ad un bar. Il rapporto uomo macchina è già di per sé aleatorio ed a maggior ragione se si aggiungono le possibili disfunzioni dell’uno e dell’altra, alle quali va aggiunta la reazione imprevedibile dei candidati. Non sono situazioni risolvibili con un algoritmo.

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...

%d blogger hanno fatto clic su Mi Piace per questo: