IN EVIDENZA

L’Edipo di silicio

Ovvero, tutte le difficoltà da affrontare per costruire macchine in grado di comprendere il linguaggio umano

3149911976_e67311c1b3_z
APPROFONDIMENTO – Immaginate una macchina in grado di riconoscere il vostro volto e la vostra mimica facciale, riuscendo a “capire” quali emozioni state provando. O capace di tradurre simultaneamente frasi nella vostra lingua dal russo o dal cinese.
Se queste vi sembrano (giustamente) sfidanti frontiere nel campo dell’intelligenza artificiale, probabilmente vi state perdendo il meglio.

Come riportato da wired.com, un team di ricercatori di Facebook ha infatti sviluppato di recente un sistema prototipale in grado di leggere un riassunto de “Il Signore degli Anelli” di J.R.R. Tolkien, e rispondere a domande sulla trama del libro.
Per avere un’idea della complessità del problema dell’analisi di un testo, provate a rispondere alla seguente domanda:

“Sam e Frodo, il portatore dell’Anello, giungono a Mordor e, sfuggendo all’Occhio di Sauron, riescono a distruggerlo. Chi o che cosa viene distrutto?”. Per chi conosce la trama del libro, o ha visto la trasposizione cinematografica di Peter Jackson, sarà facilissimo rispondere: l’Anello viene gettato nelle viscere del Monte Fato e distrutto. Riflettendoci per un attimo, però, anche una domanda semplice come questa cela insidie legate alla complessità e, per certi versi, alla ambiguità del linguaggio naturale.

In effetti se alla domanda precedente rispondeste “l’Anello”, probabilmente nessuno avrebbe da eccepire. Che dire però delle risposte “Sauron” o, anche, “l’Occhio di Sauron”, o, infine, “Anello e Sauron, Occhio compreso”? Ancora, per chi conosce un po’ la storia, l’Anello del potere è indissolubilmente legato al suo creatore, Sauron. Il quale, una volta distrutto l’Anello, perirebbe all’istante. E il suo Occhio con lui. Quindi, tutte le risposte sopra riportate sono valide.

Questo rapido esempio è esplicativo di come la capacità umana di estrarre un significato da un insieme di parole o simboli in un certo linguaggio sia tutt’altro che semplice da replicare tramite un agente artificiale. Un altro esempio di come frasi, anche molto semplici, possano risultare ambigue è stato formulato da Terry Winograd, professore di informatica presso l’ Università di Stanford:

I consiglieri cittadini rifiutarono di rilasciare l’autorizzazione ai dimostranti perché essi [temevano/giustificavano] la violenza

L’esempio suddetto è noto come “Schema di Winograd“: com’è quasi immediatamente chiaro a un qualsiasi lettore umano, la scelta di uno dei due verbi tra parentesi quadre cambia l’attribuzione del pronome “essi” ai consiglieri o ai dimostranti. Quindi, sciogliere l’ambiguità di uno schema del genere è impresa semplice per un essere umano, ma può rivelarsi difficile o, in alcuni casi, addirittura impossibile per una macchina.

A meno che la macchina non sia munita di tutte le “conoscenze” che sono di comune dominio per un essere umano sui possibili esiti di un corteo di dimostranti o sulla proverbiale prudenza degli amministratori cittadini. In quel caso, anche una macchina sarebbe in grado di associare correttamente i verbi e risolvere qualunque ambiguità insita nello schema.

Per dare un’idea di quanto gli schemi di Winograd possano richiedere capacità di analisi assai “profonda”, basti pensare che un ricercatore dell’Università di Toronto, Hector Levesque, ha proposto una riformulazione del test di Turing (il cui scopo è verificare la presenza di intelligenza in una macchina) basato appunto sugli schemi di Winograd. In altri termini, per Levesque una macchina può essere considerata intelligente se riesce a risolvere schemi di Winograd con complessità progressivamente crescente.

Altro esempio:”Frank era perplesso quando Bill disse che lui era risultato vincitore della gara. Chi aveva vinto la gara?”. Ovviamente qui anche un essere umano potrebbe essere tratto in inganno, visto che la stessa semantica, ovvero il “senso”, di quest’ultima frase è ambigua. In effetti Frank può essere perplesso perché crede di aver vinto la gara, e Bill gli sta comunicando invece che lui (Bill) ha trionfato. O viceversa. Quindi quale risposta a questa domanda denoterebbe un comportamento “intelligente”? Esistono quindi schemi sfidanti persino per gli esseri umani.

Un altro caso interessante  è la frase “Buffalo buffalo Buffalo buffalo buffalo buffalo Buffalo buffalo” proposta dal professor William Rapaport, docente (guarda un po’!) dell’Università di Buffalo, che gioca sui diversi significati nella lingua inglese della parola «buffalo»:

– Buffalo come città statunitense dello stato di New York;
– Buffalo come animale, il bisonte americano (Bison bison). Tale parola al plurale può rimanere invariata, quindi può significare sia «bisonte» che «bisonti»;
– Buffalo come verbo, to buffalo, che significa «sconcertare» e «intimidire».

Quindi una traduzione in italiano potrebbe essere:

Bufali di Buffalo che intimidiscono bufali di Buffalo possono sconcertare [altri] bufali di Buffalo

Ovviamente, per un non anglofono, la frase originale in inglese non può che essere una ripetizione senza alcun senso della parola “Buffalo”. Questo ulteriore esempio dimostra quanto, nella comprensione del linguaggio, siano fondamentali le conoscenze (letterarie, scientifiche, linguistiche etc.) di chi legge o ascolta, l’esperienza sui luoghi comuni, o “modi di dire”, di un linguaggio, l’utilizzo di termini in senso figurato, o simbolico, o ironico, o sarcastico, le caratteristiche peculiari della lingua e dell’alfabeto di simboli utilizzati per formulare le frasi e molto altro che non entrerebbe nel margine esiguo di questa pagina, come direbbe Pierre De Fermat.

Come far fronte, allora, a un problema così complesso e realizzare macchine in grado di sbrogliare qualunque ambiguità linguistica e cogliere il senso di ogni espressione? A tal fine, negli ultimi anni si sta affermando una branca del cosiddetto machine learning (o apprendimento automatico) noto come deep learning, ossia apprendimento approfondito. Si tratta di una disciplina basata su algoritmi in grado di modellare i concetti astratti di alto livello utilizzati nel linguaggio naturale basandosi su delle “architetture” di riferimento.

Tornando al nostro esempio su Il Signore degli Anelli, per utilizzare tecniche di deep learning, la prima cosa da fare sarebbe creare delle strutture, o architetture, che esprimano le relazioni tra i personaggi, i concetti, i luoghi, gli eventi etc., in modo da agevolare il processo di analisi delle espressioni da parte della macchina.
Una di queste strutture-tipo potrebbe essere :

1. Sauron (soggetto) è (verbo) il Signore di Mordor/il creatore dell’Anello/il nemico di Frodo (proprietà/attributi/caratteristiche del soggetto)
2. Sauron (soggetto) ha forgiato (verbo) l’Anello del potere (complemento oggetto)
3. Sauron viene distrutto se l’Anello del potere viene distrutto (espressione condizionale)

e così via.

In questo modo la macchina, “navigando” attraverso queste strutture, sarebbe in grado di sciogliere possibili ambiguità insite nelle domande che le vengono poste e interpretarne correttamente il senso.

Un’obiezione di principio all’affermazione che tali tecniche di deep learning rendano le macchine capaci di interpretare il linguaggio, è che, in realtà, la capacità di analisi che le macchine riescono a raggiungere non dipende che dalla bravura di coloro che hanno modellato le loro strutture “conoscitive”, ossia dai programmatori umani. O dalla gran mole di dati sullo scibile umano che gli stessi algoritmi raccattano in giro per la rete, sempre grazie alle brillanti intuizioni di chi ne ha concepito le modalità di ricerca.

Appare a questo punto evidente quanto sia arduo scindere l’analisi del linguaggio, la capacità di comprensione del parlato o dello scritto, dalla necessità di modellare la conoscenza e la coscienza umana. A questo proposito, il filosofo e matematico David Chalmers dell’Australian National University ha formulato l’esistenza di due principali problemi, o ostacoli, nel campo della modellazione della coscienza. Il primo è noto come “Problema facile” e consiste nel trovare una correlazione tra la nostra coscienza e la “materia” che costituisce la nostra mente, ossia neuroni, impulsi elettrici, cellule connettivali e così via.

Secondo Chalmers, il progresso scientifico e tecnologico renderà possibile descrivere in dettaglio questa correlazione senza grossi ostacoli. Per esempio, in corrispondenza di ogni specifica attività di un essere umano, come dipingere, risolvere problemi aritmetici, leggere un libro etc., secondo Chalmers dovrebbe essere possibile senza difficoltà insormontabili “mappare” l’attività stessa in termini di “operazioni” svolte dalle cellule che costituiscono il nostro sistema nervoso.

Ben altra portata ha, invece, il cosiddetto “Problema difficile”, ossia: come fanno gli esseri umani ad avere consapevolezza di loro stessi e di quello che fanno? Ovvero, come si spiega il loro esser capaci di avere esperienza, di “sentire” o “percepire” loro stessi mentre pensano o fanno altro? In sostanza, per Chalmers, prima di affrontare qualunque problema connesso con la coscienza, compreso quello del linguaggio, è fondamentale arrivare alla risoluzione del più difficile dei problemi, ovvero trovare una giustificazione della capacità dell’uomo di avere consapevolezza di sè e di ciò che lo circonda.

In effetti, rispetto alle macchine ci troviamo al momento a recitare il ruolo della Sfinge, che sottopone Edipo a enigmi intricatissimi a cui egli deve rispondere per non essere divorato. Quando interroghiamo il nostro Edipo di silicio, tuttavia, dovremmo provare anche a sottoporre noi stessi a una nuova versione dell’antico enigma della Sfinge:

Qual è l’essere che cammina ora a quattro gambe, ora a due, ora a tre che, contrariamente alla legge generale, più gambe ha più mostra la propria debolezza?

che potrebbe suonare più o meno così:

Qual è l’essere che fa, riflette su ciò che fa, ma non sa perchè è in grado di riflettere su ciò che fa?

Forse non sarete sorpresi nel verificare che le due versioni dell’enigma hanno la stessa soluzione. Provate adesso a spiegare il difficilissimo perché contenuto in questa nuova formulazione. E fate attenzione, perché mentre giocate a fare la Sfinge, un’altra Sfinge potrebbe aver già messo il suo Occhio su di voi.

Leggi anche: Tutti i modi per interagire con le macchine

Pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   
Crediti immagine: Stallio, Flickr

Condividi su
Gianpiero Negri
Laureato in Ingegneria Elettronica, un master CNR in meccatronica e robotica e uno in sicurezza funzionale di macchine industriali. Si occupa di ricerca, sviluppo e innovazione di funzioni meccatroniche di sicurezza presso una grande multinazionale del settore automotive. Membro di comitati scientifici (SPS Italia) e di commissioni tecniche ISO, è esperto scientifico del MIUR e della European Commission e revisore di riviste scientifiche internazionali (IEEE Computer society). Sta seguendo attualmente un corso dottorato in matematica e fisica applicata. Appassionato di scienza, tecnologia, in particolare meccatronica, robotica, intelligenza artificiale e matematica applicata, letteratura, cinema e divulgazione scientifica, scrive per Oggiscienza dal 2015.