domenica, 29 Marzo, 2020
TECNOLOGIA

Se ti dico che sono un bot, ti fidi di me?

È sempre più comune comunicare con i bot: se non rivelano la propria identità, però, sembra che le persone siano molto più portate a cooperare. Questo solleva una questione etica: i bot dovrebbero mentire sulla propria identità o essere sinceri vedendo compromessa la loro efficacia nello svolgere le mansioni per le quali sono stati programmati?

Siamo sempre più abituati a parlare con i dispositivi digitali: chiediamo l’ora ad Alexa, indicazioni stradali a Siri, a Cortana di ricordarci un appuntamento. Ma ormai la tecnologia ha già fatto qualche passo in più, permettendoci – tra le altre cose – di far effettuare telefonate e prenotazioni a un’intelligenza artificiale al posto nostro. Se siete scettici riguardo alla credibilità del risultato, dovreste ricredervi: la voce sembra naturale, usa le pause nei momenti giusti e inserisce interiezioni, pause dubitative, chiede di ripetere alcune informazioni, proprio come in una conversazione tra due esseri umani. Eppure, proprio questa abilità nel “gioco dell’imitazione”, potrebbe finire per rivelarsi un problema. In primo luogo etico, ma non solo.

Qualcuno, infatti, si è chiesto come reagiamo noi esseri umani nell’aver a che fare con una realtà di silicio. Un gruppo di ricercatori guidato da Talal Rahwan, professore associato di Scienze e Tecnologie informatiche alla New York University Abu Dhabi, ha condotto un esperimento volto a studiare come le persone interagiscono con i bot quando sono convinte che questi ultimi siano umani, e come il fatto che questi programmi svelino la propria identità influisca su queste interazioni. È risultato che i bot sono più efficienti delle persone in alcune interazioni uomo-macchina, ma solo se viene permesso loro di nascondere la propria natura non umana.

Ma cosa si intende per bot? Innanzitutto, si tratta dell’abbreviazione della parola “robot”, eppure spesso si riferisce a qualcosa di molto più effimero rispetto ai droidi di Star Wars: un programma, perciò righe di codice, di istruzioni, che hanno accesso agli stessi sistemi di comunicazione e interazione con le macchine utilizzate dalle persone. Tre semplici lettere per descrivere entità piuttosto incorporee che possono fare molte cose diverse. In alcuni casi le loro funzionalità sono molto semplici e ristrette, in altre sono davvero in grado di rispondere alle richieste più disparate.

Il dilemma del prigioniero

Per studiare l’interazione uomo-bot si è richiesto ai partecipanti di prendere parte a un gioco cooperativo (il Dilemma del Prigioniero Iterato) insieme a un partner umano o a un bot. Il Dilemma del Prigioniero, proposto da Von Neumann e Morgenstern nel 1944, prevede che due persone, sospettate di aver commesso una rapina, vengano arrestate, ma, poiché la polizia non ha sufficienti prove per dimostrare la loro colpevolezza, può solo incriminarli per reati minori, a meno che uno dei due incolpi l’altro. A quel punto, interrogati separatamente, a ciascun prigioniero viene proposta la libertà in cambio di una testimonianza contro il compagno. Se entrambi accettano la proposta, entrambi verranno condannati, ma non al massimo della pena. Se nessuno dei due accetta, la pena sarà molto lieve per tutti e due. Se uno solo accetta, soltanto l’altro subirà una dura condanna, essendo riconosciuto come l’unico colpevole.

Se i due prigionieri potessero interagire e scegliere una strategia comune, probabilmente opterebbero per non parlare, ma dovendo decidere senza conoscere l’intenzione del compagno, la strategia che minimizza il rischio risulta essere quella di tradire. La soluzione raggiunta, perciò, è per forza di cose sub-ottimale – ovvero, la pena totale comminata non è quella minima possibile. I prigionieri sono spinti a scegliere questa soluzione perché non sanno se fidarsi del compagno, ma se avessero già avuto a che fare con lui potrebbero studiare le sue scelte passate per immaginare quelle future: è il caso del Dilemma del Prigioniero Iterato. Si può scegliere se agire in maniera egoistica, cercando di trarre vantaggio dall’altro, oppure agire in maniera cooperativa nel tentativo di ottenere un beneficio comune. Per tale problema non c’è una soluzione facile come per quello del prigioniero semplice.

I ricercatori hanno inizialmente dato ai partecipanti alcune informazioni non corrette sull’identità del proprio “collega”: ad alcuni, che interagivano con un umano, è stato detto che si trattava di un bot, e viceversa. Tramite questo esperimento, il gruppo è stato in grado di stabilire se le persone abbiano un pregiudizio verso interlocutori sociali che credono essere intelligenze artificiali, e di determinare il grado a cui questo pregiudizio – se esiste – influenzi l’efficienza dei bot che sono trasparenti sulla propria natura non umana. I risultati, pubblicati sulla rivista Nature Machine Intelligence, hanno mostrato come i programmi che si ponevano, nei confronti del proprio interlocutore, come una persona in carne e ossa, erano più efficaci nel convincerlo a cooperare nel gioco. A ogni modo, non appena la loro natura veniva rivelata, il tasso di cooperazione diminuiva e la superiorità del bot si annullava.

“Per quanto ci sia un ampio consenso sul fatto che le macchine debbano essere trasparenti sul modo in cui prendono decisioni, è meno chiaro se debbano essere sincere su chi sono”, ha spiegato Rahwan. “Consideriamo, per esempio, Google Duplex, un assistente vocale automatizzato in grado di generare una parlata simile a quella umana per fare telefonate e prenotare appuntamenti per conto del proprio utilizzatore. La capacità di esprimersi di Google Duplex è così realistica che la persona dall’altra parte del telefono potrebbe non accorgersi nemmeno che sta dialogando con un bot. È etico sviluppare un sistema del genere? Dovremmo proibire ai bot di farsi passare per esseri umani, e obbligarli a essere trasparenti su chi sono in realtà? Se la risposta è ‘sì’, allora le nostre scoperte evidenziano il bisogno di fissare degli standard per il costo, in termini di efficienza, che vogliamo pagare come contropartita di tale trasparenza.”


Leggi anche: Dove nessun robot è mai giunto prima

Articolo pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   

Fotografia: Pixabay

Giulia Negri
Comunicatrice della scienza, grande appassionata di animali e mangiatrice di libri. Nata sotto il segno dell'atomo, dopo gli studi in fisica ha frequentato il Master in Comunicazione della Scienza “Franco Prattico” della SISSA di Trieste. Ama le videointerviste e cura il blog di recensioni di libri e divulgazione scientifica “La rana che russa” dal 2014. Ha lavorato al CERN, in editoria scolastica e nell'organizzazione di eventi scientifici; gioca con la creatività per raccontare la scienza e renderla un piatto per tutti.

Rispondi

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

%d blogger hanno fatto clic su Mi Piace per questo: