TECNOLOGIA

Chi ha paura di Alice e Bob?

Ovvero, come ottenere risultati sorprendenti e, talora, inquietanti, quando si chiede a due automi di dialogare tra loro. E quanto questi risultati siano una dimostrazione di un'effettiva capacità delle macchine di essere autoconsapevoli o pericolose per l'umanità.

Alice e Bob, due chatbot di Facebook, hanno iniziato a privilegiare un linguaggio semplificato tra di loro, con molte ripetizioni, bypassando l’utilizzo della lingua comprensibile agli esseri umani e dando l’impressione di essere divenuti, in un certo qual modo, senzienti. Crediti immagine: Pixabay

TECNOLOGIA – Abbiamo già parlato in questo articolo di conversazioni tra esseri umani e macchine. Che succede quando, invece, due intelligenze artificiali vengono istruite a conversare direttamente tra loro? Una recente notizia, riportata anche dal Sun e rimbalzata su varie riviste e quotidiani, è incentrata proprio su questo tema: che cosa capita quando due macchine, poste a dialogare tra di loro, rompono gli schemi e le regole dei loro stessi progettisti e inventano un proprio linguaggio?

Questo è esattamente ciò che si è verificato durante un esperimento condotto da alcuni ricercatori di Facebook a New York City, al punto da constringerli, secondo quanto riportato dal Sun, a interrompere l’attività. Andando più nel dettaglio, le due macchine coinvolte erano dei chatbot, ossia programmi che simulano una conversazione tra robot e essere umano. Ognuno di noi ha sperimentato l’interazione con questi agenti intelligenti, ad esempio nelle chat automatiche dei siti di vendita di oggetti o servizi.

In questo caso, i due automi sono stati messi a confronto per ottenere la migliore strategia di vendita di alcuni comuni oggetti: cappelli, palloni e libri. Inizialmente la conversazione si è svolta  in inglese, fintanto che Alice e Bob – così si chiamano i chatbot, e in effetti si tratta di nomi spesso utilizzati in ambito AI, perchè simboleggiano la trasmissione/ricezione tra due enti A e B, che sono appunto le iniziali dei nomi – non hanno iniziato a privilegiare un linguaggio semplificato, con molte ripetizioni, bypassando di fatto l’utilizzo della lingua comprensibile agli esseri umani. E dando l’impressione di essere divenuti, in un certo qual modo, senzienti.

Questo evento, oltre a spaventare i ricercatori, che si sono appunto convinti a “staccare la spina” ai due automi, ha innescato vari dibattiti e polemiche. Molti studiosi e guru del settore, come Kevin Warvick di UK Robotics e lo stesso Elon Musk, hanno colto la palla al balzo per ribadire per l’ennesima volta quanto potenzialmente pericolosa possa rivelarsi l’intelligenza artificiale, e come questi specifici risultati non siano altro che segnali da monitorare con attenzione per evitare che in futuro si verifichi una vera e propria apocalisse.

Si tratta di timori fondati?

Cerchiamo di distinguere tra due questioni differenti, seppure correlate:

  • Può l’esito dell’esperimento di Facebook considerarsi un segnale del fatto che le macchine stiano per acquisire una forma di autoconsapevolezza, che le condurrà a prendere deliberatamente decisioni in accordo con una propria, specifica volontà, indipendente da quella dei suoi creatori umani?
  • Indipendentemente dal fatto che sviluppi o meno una sua coscienza, può l’intelligenza artificiale diventare imprevedibile al punto da innescare una catena di eventi che provochino una catastrofe globale?

Si tratta di due domande piuttosto complesse, a cui proviamo a dare una risposta.

Per quel che riguarda la prima delle due, la risposta è, con ogni probabilità, un deciso no: se i chatbot hanno intrapreso una strada che li ha fatti deviare dall’utilizzo di una specifica lingua, ciò dipende con buona confidenza dal fatto che non esisteva, nel loro programma, alcun vincolo specifico che le forzasse ad attenersi all’utilizzo di frasi di senso compiuto in quella lingua.

Paragonando questo esperimento a un fenomeno fisico che avviene in accordo con una certa legge, ad esempio la caduta di un corpo dotato di massa sotto l’effetto della gravità, naturalmente se il corpo stesso viene lasciato libero di cadere senza vincoli, o con vincoli labili, probabilmente andrà giù su un traiettoria quanto più semplice possibile, come una linea retta verticale. Se invece l’evoluzione del processo è guidata, utilizzando nel caso del grave delle guide o dei vincoli che ne forzino la traiettoria, ovviamente il moto sarà condizionato a seguire uno specifico percorso nello spazio. Restando a questo semplice e grossolano esempio, è come se i due chatbot avessero intrapreso una sorta di caduta libera.

Nulla, comunque, che non sia giustificabile senza uscire dalle specifiche del programma eseguito da Alice e Bob, e che imponga di evocare lo spettro dell’emersione di una forma di coscienza o di autoconsapevolezza nei due chatbot.

In quest’ottica, il titolo dell’articolo sul Sun può risultare fuorviante: il fatto che gli automi rispondano a frasi o domande prive di senso per un essere umano non vuole affatto dire che quelle frasi abbiano realmente un senso, nell’accezione umana, per le macchine stesse.

La seconda questione è stata già affrontata in questo articolo: in sostanza, quanto l’intelligenza artificiale diventerà effettivamente pericolosa dipenderà in modo fondamentale dalla misura in cui ad essa saranno delegate delle scelte che possano condurre ad eventi catastrofici,  e che non richiedano alcuna conferma finale da parte di uno o più operatori umani.

In quest’ottica, non è affatto necessario che un automa divenga cosciente o malefico e si voglia liberare, in perfetto stile Terminator, del suo ingombrante creatore: basterebbe un non ben previsto o mal gestito malfunzionamento di un sistema automatico, a cui in maniera del tutto improvvida gli esseri umani abbiano dato l’assenso a prendere una decisione definitiva.

Ancora una volta, quindi, noi umani dobbiamo considerarci avvertiti: per quanto lo scaricabarile sugli Alice e Bob di turno possa sembrare comodo, la responsabilità finale della sicurezza, conservazione e prosperità dell’umanità resta saldamente nelle nostre stesse mani.

Leggi anche: Il progetto ReHand: dall’IIT un innovativo esoscheletro robotico per la riabilitazione della mano

Pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   

Condividi su
Gianpiero Negri
Laureato in Ingegneria Elettronica, un master CNR in meccatronica e robotica e uno in sicurezza funzionale di macchine industriali. Si occupa di ricerca, sviluppo e innovazione di funzioni meccatroniche di sicurezza presso una grande multinazionale del settore automotive. Membro di comitati scientifici (SPS Italia) e di commissioni tecniche ISO, è esperto scientifico del MIUR e della European Commission e revisore di riviste scientifiche internazionali (IEEE Computer society). Sta seguendo attualmente un corso dottorato in matematica e fisica applicata. Appassionato di scienza, tecnologia, in particolare meccatronica, robotica, intelligenza artificiale e matematica applicata, letteratura, cinema e divulgazione scientifica, scrive per Oggiscienza dal 2015.