IN EVIDENZATECNOLOGIA

Etica e istinto al tempo dei veicoli a guida autonoma

Se c'è in gioco la vita umana, c'è una profonda discrepanza tra principi etici scelti a tavolino e condotta delle persone. Che influenza hanno queste dinamiche sulla guida autonoma?

etica della guida autonoma
La scelta a tavolino di principi etici, seppure ottenuta con la massima imparzialità possibile, non riflette il comportamento istintivo di un campione di esseri umani. Crediti immagine: Pixabay

APPROFONDIMENTO – I veicoli a guida autonoma: una sfida affascinante, caratterizzata da una elevata complessità in vari ambiti, non strettamente scientifici o tecnologici. OggiScienza ha già affrontato in varie occasioni il tema delle normative applicabili a questo delicato ambito, già pubblicate o in corso di redazione. Ma che dire dell’etica della guida autonoma?

Se da una parte è in corso una vera e propria battaglia tra alcuni dei principali costruttori di autovetture, per arrivare il prima possibile a una soluzione tecnicamente valida e affidabile, resta alto il livello di guardia delle istituzioni governative. Ma anche del mondo accademico, che si interroga sulle implicazioni di sicurezza nella migrazione dai veicoli tradizionali a quelli a guida autonoma.

Etica della guida autonoma, un dibattito filosofico

Affrontando il tema in generale sono potenzialmente critiche tutte le macchine che, nel presente o nel futuro prossimo, saranno dotate di funzionalità autonome. Funzionalità che rimpiazzeranno in tutto o in parte gli operatori umani.

Il punto di vista etico e filosofico è imprescindibile. Ancora prima di affrontare i problemi tecnologici, correlati ad esempio con lo sviluppo di sistemi e algoritmi che identifichino ogni possibile scenario in tempo reale, ci si deve interrogare sui criteri che le macchine dovrebbero utilizzare. Per prendere in maniera autonoma delle decisioni i cui effetti potrebbero rivelarsi dannosi per gli esseri umani.

Proprio sull’etica della guida autonoma un team dell’Istituto di Scienze Cognitive dell’Università di Osnabrück, in Germania, ha pubblicato sulla rivista Frontiers in Behavioral Neuroscience uno studio dal titolo molto suggestivo. “Autonomous Vehicles Require Socio-Political Acceptance—An Empirical and Philosophical Perspective on the Problem of Moral Decision Making“.

Prendiamo il cosiddetto trolley problem o problema del carrello ferroviario. Il conducente di un mezzo su rotaia viene posto di fronte a una scelta con due possibili alternative. Entrambe possono implicare la perdita più o meno severa di vite umane. Come sarebbe giusto comportarsi, nei vari scenari in esame?

Il team di ricerca ha usato le linee guida sviluppate dalla Ethics Commission del Ministero dei Trasporti tedesco in materia di condotta etica della guida autonoma. Introducono alcuni elementi chiave da tenere in conto nel processo decisionale “artificiale” della macchina. Uno dei primi imperativi è ridurre al minimo il numero di incidenti. Ispirandosi poi alle celebri Leggi di Asimov, si è individuato un altro principio: considerare prioritaria la salvaguardia della vita umana.

Ma qui arriva la parte più interessante. L’etica della guida autonoma in queste linee guida introduce il concetto di inaccettabilità della scelta se basata su caratteristiche personali o specifiche della potenziale vittima. Ad esempio età, genere, etnia, costituzione fisica, salute mentale. I risultati dell’esperimento descritto nello studio hanno provato che l’intuizione o l’improvvisazione umana non seguono questi criteri che, sulla carta, dovrebbero garantire la massima imparzialità ed equità di giudizio.

Il test è stato concepito in modo da risultare quanto più realistico possibile, discostandosi dalle modalità finora utilizzate per collezionare informazioni sulle scelte da parte di esseri umani. Ad esempio l’uso di pplicazioni web come nel caso della cosiddetta MIT Moral Machine.

È stato impiegato un simulatore basato sulla realtà virtuale, che fosse in grado di riprodurre in modo realistico le condizioni ambientali, di guida, e l’aspetto delle potenziali vittime. I risultati della simulazione, in alcuni casi, sono stati sorprendenti. E in netto contrasto con le linee guida etiche di cui sopra.

  • Le persone sono state messe di fronte all’alternativa tra lo schiantarsi contro una parete rocciosa a una velocità sostenuta (riportando un grave danno, ovviamente simulato) o investire una o più persone. Hanno agito più altruisticamente di quanto si potesse prevedere e di quanto le stesse linee guida etiche suggerirebbero. Hanno scelto di sacrificare se stessi in più della metà dei casi, soprattutto quando il numero di individui investiti sarebbe stato elevato. Nel caso di cinque persone, il 70% dei conducenti ha preferito “perdere la vita” piuttosto che causarne la morte
  • Dei numeri ancora più elevati si sono registrati nello scenario in cui la scelta era tra un individuo anziano e un bambino. In questo caso, in un numero estremamente elevato di prove (circa il 90%) il conducente ha scelto di salvare il bambino virtuale, sacrificando la vita dell’anziano virtuale.

Lo studio mostra che la scelta a tavolino di principi per l’etica della guida autonoma non riflette il comportamento istintivo di un campione di esseri umani. Anche se effettuata in modo imparziale e coinvolgendo esperti di varie discipline. In qualche modo, così, ha introdotto degli elementi critici costruttivi per la valutazione dei criteri etici più opportuni da “instillare” nelle macchine.

Decisioni critiche e ruolo dell’operatore: il dibattito è aperto

Ma restano alcune domande: in che percentuale le decisioni critiche possono essere affidate unicamente alle macchine? Quale dovrebbe essere il ruolo dell’operatore o passeggero umano? Come dovrebbero essere ripartite le responsabilità di un eventuale incidente mortale?

Su questo tema gli italiani Giuseppe Contissa e Francesca Lagioia, ricercatori dell’European University Institute di Firenze e Giovanni Sartor, docente all’Università di Bologna, hanno proposto l’adozione di una manopola etica. Ossia un dispositivo che consente all’operatore di scegliere, per un veicolo autonomo, una condotta più o meno egoistica. Pur preservando la facoltà dell’automa di prendere decisioni gli esseri umani si assumerebbero la responsabilità di influenzare la strategia decisionale.

Opportunità e sfide della regolamentazione della condotta di robot e agenti artificiali intelligenti saranno il tema centrale di una conferenza organizzata dall’European University Institute in collaborazione con Google. Si terrà il 18 e il 19 Maggio a Firenze. Un’interessante occasione di approfondimento che vedrà la partecipazione di esperti provenienti da varie istituzioni e con differenti background. L’obiettivo: affrontare questi temi tenendo in conto tutte le implicazioni, tecnico-scientifiche ma anche filosofiche, legali e di etica. Ovviamente, anche di etica della guida autonoma.

segui Gianpiero Negri su Twitter

Leggi anche: Auto a guida autonoma, siamo pronti? Un nuovo approccio “senza-mappa”

Pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   

Condividi su
Gianpiero Negri
Laureato in Ingegneria Elettronica, un master CNR in meccatronica e robotica e uno in sicurezza funzionale di macchine industriali. Si occupa di ricerca, sviluppo e innovazione di funzioni meccatroniche di sicurezza presso una grande multinazionale del settore automotive. Membro di comitati scientifici (SPS Italia) e di commissioni tecniche ISO, è esperto scientifico del MIUR e della European Commission e revisore di riviste scientifiche internazionali (IEEE Computer society). Sta seguendo attualmente un corso dottorato in matematica e fisica applicata. Appassionato di scienza, tecnologia, in particolare meccatronica, robotica, intelligenza artificiale e matematica applicata, letteratura, cinema e divulgazione scientifica, scrive per Oggiscienza dal 2015.