ricerca

Le macchine potranno mai conversare tra loro?

Per comprendere il linguaggio, le macchine dovrebbero essere in grado di costruire una conoscenza condivisa

talk-1034161_1280
Per insegnare alle macchine a comunicare è necessario affrontare la sfida dell’ambiguità del linguaggio. Immagine Pixabay

TECNOLOGIA – Nonostante le difficoltà e i fraintendimenti quotidiani, gli esseri umani riescono per lo più a comunicare in modo efficace, scambiandosi idee, emozioni, stati d’animo, opinioni. La capacità di comprensione del linguaggio e della gestualità, che ci appare così naturale, è tutt’altro che semplice da modellare e da riprodurre nelle macchine.

Ne sanno qualcosa i ricercatori dell’Università di Berkeley, e in particolare Arjen Stolk, che studia i meccanismi della comprensione tra esseri umani per insegnarli alle macchine. Non senza problemi.
Le macchine infatti, a differenza degli umani, non sono in grado di sviluppare una comprensione condivisa dei luoghi, delle situazioni, degli scenari che “osservano”, della storia di oggetti e persone. E questo sembra essere proprio l’elemento chiave della comunicazione umana, come spiega il ricercatore insieme a due colleghi in un articolo pubblicato su Trends in Cognitive Sciences. Per fare un esempio, consideriamo la parola “via”.  A seconda del contesto, può indicare una strada, un invito ad allontanarsi, un’esortazione, un segnale di partenza. Come facciamo a capirne il senso nei diversi casi?

Esistono, inoltre, veri e propri “linguaggi convenzionali” non verbali, per esempio quello che consente ai bambini molto piccoli di comunicare le loro esigenze ai genitori. Allo scopo di studiare le aree del cervello coinvolte nel meccanismo della comprensione, il gruppo di ricerca guidato da Stolk ha ideato un gioco su una scacchiera in cui un giocatore deve riuscire a comunicare all’altro le regole del gioco stesso avvalendosi solo delle mosse delle pedine.

Con una risonanza magnetica funzionale, ha poi osservato l’attività cerebrale dei giocatori mentre cercavano di “comprendersi”, scoprendo che in entrambi le stesse regioni del cervello erano attive nel medesimo tempo. Il dato, secondo i ricercatori, suggerisce che in quelle regioni risieda in qualche modo la capacità di sviluppare una conoscenza condivisa.

Come trasferire questa capacità alle macchine? Un esempio di rilievo, di cui parla il giornalista Cade Metz in un articolo su wired.com, è costituito dalla startup Metamind, che ha ideato un sistema basato su reti neurali in grado di sviluppare una sorta di “memoria contestuale a breve termine”. Per fare un esempio, si legge nell’articolo, dando in pasto all’algoritmo di Metamind il seguente testo:

Giovanna è in casa.
Luca è in giardino.
Teresa ha preso un bicchiere di latte in cucina.
Luca va da Giovanna.
Teresa porta loro il latte.

Alla domanda “Dov’è il latte?”, l’algoritmo potrebbe rispondere “in casa”.
Probabilmente molti darebbero la stessa risposta, anche se esistono altre risposte valide, come “nel bicchiere”. Si può anche giocare online con Metamind, provando ad inserire brevi sequenze di eventi sempre più contorte e testare l’algoritmo per capire se riesce a stare dietro alla nostra creatività.

Un altro esempio è il “Progetto Spinoza“, che ha come obiettivo la creazione di macchine che comprendono il linguaggio (Understanding Language Machine, o ULM). La sfida è ardua, considerando la complessità e l’ambiguità del linguaggio. Se il linguaggio umano fosse non ambiguo, si potrebbero codificare in modo univoco tutte le sue regole ed espressioni, e a quel punto sviluppare una macchina per interpretarle con un programma predefinito.

Naturalmente questa macchina non sarebbe munita nemmeno di un atomo di pensiero laterale o di senso dell’umorismo, non potendo in alcun modo deviare dal suo rigido programma. E questa, secondo alcuni studiosi, rappresenta esattamente la barriera finale da abbattere per costruire macchine davvero intelligenti: renderle capaci di possedere un sano senso dell’umorismo, come riporta Ilya Leybovich
in questo articolo su iQ di Intel. Il punto è che per noi stessi il concetto di humour è difficile da definire in modo chiaro e univoco.

Leggi anche: Lettura della mente? No, connessione brain-to-brain

Pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   

Condividi su
Gianpiero Negri
Laureato in Ingegneria Elettronica, un master CNR in meccatronica e robotica e uno in sicurezza funzionale di macchine industriali. Si occupa di ricerca, sviluppo e innovazione di funzioni meccatroniche di sicurezza presso una grande multinazionale del settore automotive. Membro di comitati scientifici (SPS Italia) e di commissioni tecniche ISO, è esperto scientifico del MIUR e della European Commission e revisore di riviste scientifiche internazionali (IEEE Computer society). Sta seguendo attualmente un corso dottorato in matematica e fisica applicata. Appassionato di scienza, tecnologia, in particolare meccatronica, robotica, intelligenza artificiale e matematica applicata, letteratura, cinema e divulgazione scientifica, scrive per Oggiscienza dal 2015.