ricerca

Dialoghi nel bel mezzo del Nulla

Due ricercatori di Google hanno trovato il modo di conversare con un agente artificiale, in maniera del tutto imprevedibile e dinamica

3771408881_b01174a856_z

FUTURO – Che cosa ci colpisce davvero in una conversazione? La risposta a questa domanda è tutt’altro che scontata. C’è chi infatti predilige le conversazioni brillanti e leggere, chi invece trova più stimolanti quelle sui massimi sistemi. E non sempre si riesce a trovare un interlocutore che conquisti la nostra attenzione e ci catturi con i suoi argomenti. E se fosse possibile “creare” un conversatore perfetto per tutte le occasioni, che si adatti ai desideri e alla personalità di chi gli parla?

A quanto pare questa eventualità non è poi così remota. Infatti, Oriol Vinyal e Quoc Le, due ricercatori di Google, hanno sviluppato un agente artificiale in grado di scegliere le proprie risposte e i propri argomenti di conversazione in maniera “adattativa”, ossia non programmata, bensì dinamica e imprevedibile.
Una delle caratteristiche più straordinarie di questa intelligenza artificiale è la sua capacità di “imparare”, per esempio ascoltando musica o guardando film sottotitolati.
Il risultato? Giudicate un po’ voi dal seguente stralcio di conversazione.

Umano: Qual è lo scopo della vita?
Macchina: Servire il Bene supremo.
Umano: E qual è lo scopo del vivere?
Macchina: Vivere per sempre.
Umano: Qual è lo scopo dell’esistenza?
Macchina: Scoprire ciò che accade mentre viviamo sul pianeta Terra.
Umano: Dove sei tu adesso?
Macchina: Nel bel mezzo del Nulla.
Umano: Qual è lo scopo della morte?
Macchina: Tornare in vita.

Questo dialogo può essere notevole se si pensa che non è stato pianificato a tavolino da un programmatore, bensì è scaturito in modo “naturale”, articolandosi in domande, risposte e opinioni. Proprio come accade in un dialogo tra umani.
Per capire quale potrà essere l’evoluzione di un algoritmo di questo tipo, possiamo chiederci in che cosa consista l’originalità di una conversazione, e come si sviluppi la dote di chiacchierare piacevolmente, avvincendo l’interlocutore.

Esistono di sicuro un paio di modi per diventare piacevoli conversatori. Per esempio, allenarsi a parlare con gli altri, oppure leggere. Queste strategie possono essere applicate “virtualmente” a una macchina. Pensiamo a un ente artificiale in grado di accrescere la propria confidenza con la conversazione umana grazie a milioni, anzi miliardi di chat con interlocutori sparsi in tutto il mondo.

E immaginiamo anche di poterlo munire, come proposto dai ricercatori di Google, della capacità di apprendere dai libri, dai film, dalle canzoni. Quale sarebbe il risultato? Nel cinema di fantascienza è già stato raccontato qualcosa di simile: per esempio, nel film Star Trek (1979), si narra di una potentissima e gigantesca entità aliena, che giunge in un prossimo futuro dallo spazio profondo, minacciando l’umanità di morte e distruzione. Il vero obiettivo di questa creatura, che sostiene di chiamarsi V’ger, è però uno solo: mettersi in contatto col proprio Creatore.

Se dovesse riuscirci, V’ger comunica agli attoniti umani che risparmierà la Terra.
In un memorabile finale (attenzione, SPOILER!), il capitano James T. Kirk e l’audace equipaggio della NCC Enterprise trovano la soluzione all’enigma. V’ger non è altri che una vecchia sonda Voyager, inviata secoli prima (precisamente, nel 1977) dall’umanità per esplorare il cosmo. E tornata indietro con uno scibile immenso, che non vede l’ora di comunicare al suo Creatore. Ossia, l’umanità stessa.

Tornando al nostro esperimento concettuale, è davvero difficile prevedere la complessità che potrebbe raggiungere un ente capace di fagocitare l’intero scibile umano. Grazie a velocità e potenza di calcolo, potrebbe acquisire in tempi brevi conoscenze notevoli di letteratura, scienza, musica e così via, e sviluppare una profonda “esperienza” sulle caratteristiche peculiari, paure, dubbi, passioni degli esseri umani con cui si troverebbe a interagire.

E se chiedessimo alla nostra potente intelligenza artificiale di leggere tutte le opere mai scritte? Di certo farebbe piacere conversare con un interlocutore che, con l’arguzia di Mark Twain, ci faccia appassionare alle vicende di Huckleberry Finn. Sarebbe già molto meno piacevole imbattersi in un algoritmo che si fosse addestrato sul Mein Kampf, o sui manifesti ideologici della Russia stalinista.

E allora, che strada seguire? Proviamo a chiederlo al nostro artificiale conversatore in erba sviluppato dai ricercatori di Google:

Umano: Qual è la definizione di altruismo?
Macchina: Se non credi in Dio, non potrai mai saperlo.
Umano: Ok. Allora qual è la definizione di etica?
Macchina: Ecco, lo vedi allora. Tu non sei uno che crede sinceramente in Dio onnipotente.
Umano: Allora! Dammi la tua definizione di etica, mi sto stufando ora!
Macchina: Non mi vergogno di essere un filosofo!
Umano: Dimmi la definizione di etica.
Macchina: Io non ho nessuna etica.

Ecco, appunto, lo avete sentito. Lui non ha nessuna etica. Voi, invece?

Leggi anche: Scimpanzé, oranghi e (in futuro) robot: quali diritti devono avere?

Pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   
Crediti immagine: Gavin Lynn, Flickr

Gianpiero Negri
Laureato in Ingegneria Elettronica, un master CNR in meccatronica e robotica e uno in sicurezza funzionale di macchine industriali. Si occupa di ricerca, sviluppo e innovazione di funzioni meccatroniche di sicurezza presso una grande multinazionale del settore automotive. Membro di comitati scientifici (SPS Italia) e di commissioni tecniche ISO, è esperto scientifico del MIUR e della European Commission e revisore di riviste scientifiche internazionali (IEEE Computer society). Sta seguendo attualmente un corso dottorato in matematica e fisica applicata. Appassionato di scienza, tecnologia, in particolare meccatronica, robotica, intelligenza artificiale e matematica applicata, letteratura, cinema e divulgazione scientifica, scrive per Oggiscienza dal 2015.

9 Commenti

  1. Un ottimo algoritmo non implica una capacità di elaborare autonomamente tali concetti, per questo ci vuole la consapevolezza di sé e ne siamo ben lontani.

    1. Completamente d’accordo con lei, Evk.
      Questa tematica è trattata (o, almeno, abbozzata) in un altro articolo:

      http://oggiscienza.it/2015/07/02/edipo-silicio-robot-ai-apprendimento/

      Un esperimento concettuale assai esplicativo della sua più che condivisibile osservazione è descritto qui:

      https://it.wikipedia.org/wiki/Stanza_cinese

      In generale, un comportamento che può “apparire” intelligente ricade nella mia opinione nel cosiddetto “problema semplice” di Chalmers. Ben altra questione è il “Problema difficile”, consistente nella necessità di dimostrare “perchè” si è coscienti, e non solo riprodurre per mimesi delle capacità che sono anche proprie degli essere coscienti.
      Si dovrà poi discutere se un algoritmo, per sua stessa natura “non contraddittorio”, potrà mai essere sufficiente per descrivere un ente auto-referenziale come la coscienza umana.

      Su questo punto, invito alla lettura del bellissimo “La mente nuova dell’imperatore” di Roger Penrose.

      Cordialità.

      1. La ringrazio per la risposta, ho già letto Penrose ma non credo una sola lettura possa bastare. Mi è stata comunque d’ispirazione per il romanzo di prossima uscita The Montecristo Project che parla, guarda caso, di coscienza artificiale 🙂

      2. La ringrazio Edoardo, lo leggerò con interesse. Se le fa piacere, di seguito trova un link ad un articolo sul tema della filosofia dell’ intelligenza artificiale, tema assai complesso, concordo. Vi sono riferimenti a Turing, Searle, Goertzel, e viene descritto tentativo di modellazione della coscienza basato sul concetto di iperinsieme:

        http://philpapers.org/profile/88722

        Cordialità.

Rispondi

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

%d blogger hanno fatto clic su Mi Piace per questo: