TECNOLOGIA

Facebabilonia, o la nuova Torre di Babele

Ovvero, come a Palo Alto si stia lavorando per sviluppare una piattaforma in grado di comprendere messaggi in qualunque lingua. E come questo “ritorno alla protolingua” possa comportare rischi non indifferenti per lo sviluppo della cultura personale (e uccidere l’interesse per la ricerca)

Un team di ricerca di Facebook ha sviluppato Deeptext, un algoritmo in grado di interpretare con una accuratezza prossima a quella umana il contenuto testuale delle decine di migliaia di post e messaggi che ogni secondo vengono condivisi su Facebook, in più di venti lingue diverse. Crediti immagine: Jurgen Appelo, Flickr

TECNOLOGIA – Perchè gli esseri umani non parlano tutti la stessa lingua? In effetti, secondo la cosiddetta teoria dell’origine monogenetica, sarebbe esistita agli albori della storia (o meglio, della preistoria umana) una singola protolingua, detta lingua primigenia, dalla quale si sarebbero originate in seguito tutte le altre.

Alcuni sostenitori di tale controversa ipotesi, come il linguista ed etnologo Merritt Ruhlen, si sono addirittura spinti a ricercare la radice comune di parole con lo stesso significato in lingue differenti. Ad esempio, il termine “uno”, in nilo-sahariano e dene-caucasico viene reso con “tok”, in eurasiatico con “tik”, in indo-pacifico con “dik”. Presentando quindi radici sorprendentemente simili in lingue antiche molto diverse, parlate da popoli anche molto distanti geograficamente.

A che si deve, allora, la differenziazione spesso così radicale delle varie lingue? Nella tradizione giudaico-cristiana, come riportato nella Genesi, tale “confusione” sarebbe conseguenza della punizione di Dio, abbattutasi sugli uomini rei di aver costruito una torre alta abbastanza da raggiungerlo. Tornando ai giorni nostri, il progresso tecnologico potrebbe mettere a disposizione uno strumento per mettere un po’ d’ordine nella grande varietà di lingue esistenti?

Secondo Facebook Inc. parrebbe proprio di sì. Infatti un team di ricerca della nota società americana ha sviluppato Deeptext, un algoritmo in grado di interpretare con una accuratezza prossima a quella umana il contenuto testuale delle decine di migliaia di post e messaggi che ogni secondo vengono condivisi su Facebook, in più di venti lingue diverse.

Uno dei problemi principali da affrontare è legato al fatto che ogni lingua ha in realtà un buon numero di variazioni, considerando l’esistenza di slang e dialetti, oltrechè di una pronuncia anche molto diversa per una stessa parola in diverse aree geografiche. Come può riuscire il nuovo motore linguistico di Facebook in una impresa così ardua?

La risposta è nella rappresentazione delle parole. Ad esempio, in un approccio tradizionale, la parola “brother” viene convertita in un identificativo univoco intero, diciamo 4598. La parola “bro”, invece, che non è altro che una versione in slang di “brother”, viene convertita in un intero completamente diverso, come ad esempio 986665. Chiaramente la “distanza” tra queste due rappresentazioni è molto elevata, motivo per cui una data parola dovrà essere scritta in modo preciso per essere identificata univocamente.

Nell’approccio di DeepText, parole con significato affine, o versioni in slang di una data parola, vengono rappresentate da una codifica pressocchè adiacente. Tornando all’esempio precedente, se la parola “brother” viene rappresentata con 4598, la sua versione in slang “bro” verrà codificata in 4597, la traduzione in italiano “fratello” con 4596, e quella in spagnolo “hermano” con 4595.

Quindi, sebbene la grafia dei termini suddetti possa essere anche molto diversa, per la loro sostanziale corrispondenza semantica, essi verranno rappresentati da punti molto vicini nello spazio della codifica. Riducendo, in tal modo, la necessità di onerose operazioni di calcolo per determinare le corrispondenze, e consentendo anche una certa flessibilità dell’algoritmo nell’analizzare il testo.

Un analogo discorso vale per i termini con grafia errata per errori di battitura, ma facilmente riconducibili a termini corretti. Ad esempio, la stringa di caratteri “frtaello” sarebbe semplicemente scartata da un sistema con regole rigide. Se invece ad essa si assegna un identificativo numerico prossimo a quello della stringa corretta “fratello”, ecco che diventa possibile in modo semplice interpretare anche parole distorte da errori tipografici.

Tuttavia le capacità di DeepText dovrebbero andare ben oltre. Consideriamo una conversazione su Messenger, il servizio per la messaggistica istantanea incorporato in Facebook, in cui uno degli interlocutori scriva che non ha tempo per chiacchierare, perché sta cercando disperatamente in rete un last minute per un viaggio in Grecia.

Deeptext potrebbe, sfruttando la sua capacità di interpretazione, fornire a quel punto uno o più link ai siti che più probabilmente conterranno informazioni utili per la ricerca. O, in una versione ancora più avanzata, farsi carico delle prenotazioni necessarie, limitandosi poi a chiedere unicamente la conferma all’utente.

Uno dei rischi più grandi connesso con la disponibilità di uno strumento così potente, è che esso potrebbe determinare una atrofia delle azioni e del pensiero umano. Che necessità avrei, infatti, di apprendere una lingua con sforzo e sudore, quando posso comunicare nel mio slang, peraltro commettendo tutti gli errori di battitura che voglio, senza nessun problema ad essere inteso?

E, guardando un po’oltre, quale stimolo potrei mai avere nel ricercare in rete la soluzione a un complicato problema di fisica, se un algoritmo interpreta la mia necessità nel momento in cui la scrivo, ed è in grado in tempo reale di suggerirmi la soluzione al mio quesito?

Tutte domande più che legittime, in un’epoca nella quale ci apprestiamo ad assistere a una massiccia automatizzazione delle attività che, finora, siamo stati ad eseguire in nell’interazione con altri esseri umani e con le macchine stesse.

Una rivoluzione che, assai probabilmente, metterà in profonda discussione gli stessi fondamenti del ruolo e della funzione della componente umana della società del prossimo futuro.

Leggi anche: La Dichiarazione Universale dei Diritti dei Robot

Pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   

Condividi su
Gianpiero Negri
Laureato in Ingegneria Elettronica, un master CNR in meccatronica e robotica e uno in sicurezza funzionale di macchine industriali. Si occupa di ricerca, sviluppo e innovazione di funzioni meccatroniche di sicurezza presso una grande multinazionale del settore automotive. Membro di comitati scientifici (SPS Italia) e di commissioni tecniche ISO, è esperto scientifico del MIUR e della European Commission e revisore di riviste scientifiche internazionali (IEEE Computer society). Sta seguendo attualmente un corso dottorato in matematica e fisica applicata. Appassionato di scienza, tecnologia, in particolare meccatronica, robotica, intelligenza artificiale e matematica applicata, letteratura, cinema e divulgazione scientifica, scrive per Oggiscienza dal 2015.