domenica, Settembre 27, 2020
CERVELLI ARTIFICIALI

Che razza di intelligenza artificiale vogliamo?

Gli algoritmi non sono neutri, ma si comportano in base ai valori e ai pregiudizi che noi vi inseriamo. Siamo all'alba di una nuova era, in cui la tecnologia può essere al servizio dell'essere umano. E l'Europa ha un ruolo importante nel costruire una società, prima che un digitale, davvero inclusiva.

Nel 2016 fece la sua apparizione su Twitter Tay, un bot (cioè un account dietro il quale si cela un programma automatico) progettato da Microsoft per interagire con i giovani americani, imparando dal confronto con gli utenti. Non finì benissimo: dopo appena 24 ore Tay simpatizzava con i comportamenti di Hitler e diffondeva fake news. L’esperimento fu bloccato, regalandoci due preziosi insegnamenti: le intelligenze, anche quelle artificiali, apprendono dalle esperienze umane. Se queste non sono di qualità, perché contengono magari pregiudizi più o meno espliciti, le macchine si comporteranno di conseguenza.

La seconda lezione riguarda il contesto, che non è avulso dal singolo, sia questi un umano o un’entità artificiale. I programmatori possono essere animati dalle migliori intenzioni, ma inserire in un certo contesto un’intelligenza in grado di apprendere senza proteggerla in modo adeguato può creare guai seri.

“Dal punto di vista evolutivo, l’essere umano non ha una grande capacità di percepirsi in modo collettivo – dice a OggiScienza Dino Pedreschi, ordinario di Informatica all’Università di Pisa – Il modello libertario e super liberista dell’individuo, che lo vede come superiore a ogni altra cosa e svincolato dall’ambiente in cui si muove, è l’abbaglio più grande della tecnologia digitale sviluppata nella Silicon Valley. L’assunto di partenza è che se rendo tutti gli individui intelligenti, avrò una società intelligente. Purtroppo non è così”.

L’intelligenza è (anche) visione collettiva

Pensiamo per esempio all’intelligenza artificiale in grado di guidarci nel traffico: se dobbiamo spostarci dal punto A al punto B, il nostro navigatore ci mostrerà la migliore soluzione in base alle condizioni del momento. Una mossa astuta che vaglia tutte le possibilità e sceglie per noi la più rapida. Se però lo stesso suggerimento è fornito a tutti coloro che si spostano da A a B a una certa ora, ecco che si crea un ingorgo perché manca la visione d’insieme e la capacità di indirizzare le diverse auto come se fossero parte di un sistema.

“La grande sfida è pensare a strumenti che ci aiutino a riflettere sulle nostre scelte invece di suggerircele in modo passivo – spiega Pedreschi, che è anche tra i massimi esperti di human-centered AI, cioè intelligenza artificiale che pone al centro l’essere umano – Bloccati nel traffico, ci sarà molto chiaro come il navigatore ci abbia creato un problema, invece di semplificarci la vita”.

Avere un’AI con la persona al centro significa disporre di assistenti in grado di capire molto dell’individuo, ma anche dell’ambiente circostante. Solo così potrà aiutare gli esseri umani a coordinarsi per raggiungere i propri obiettivi nel modo migliore possibile. “Esiste una complessità di fondo di cui dobbiamo essere consapevoli”, ricorda Pedreschi.

Scatole nere incomprensibili

Tra gli aspetti più affascinanti a proposito di intelligenza artificiale, c’è l’esistenza di strategie così complesse per l’apprendimento (il cosiddetto deep learning) da sfuggire alla comprensione degli stessi programmatori. Il rischio è quindi di trovarsi in compagnia di vere e proprie scatole nere che forniscono risposte senza che sia ben chiaro il percorso che hanno compiuto per arrivarci.

Un esperimento che ben esemplifica questo problema riguarda l’apprendimento della differenza tra husky e lupi: alla macchina è stata mostrata un’enorme quantità di immagini dei due animali. A un certo punto, si è osservato che l’intelligenza artificiale sbagliava su alcune foto ritenute semplici, senza che fosse chiaro il ragionamento alla base dell’errore. “Alcuni ricercatori hanno provato ad “aprire” questa black box, scoprendo che tutte le immagini proposte alla macchina per l’apprendimento collocavano il lupo sulla neve. In presenza di questa, quindi, l’AI catalogava l’animale come “lupo”.

Questo esempio può sembrare banale, ma se alle immagini dei canidi si sostituiscono quelle di lesioni dermatologiche che potrebbero essere tumori, oppure informazioni legate alla giustizia, che permettono quindi di indirizzare il giudizio nei confronti di una persona, abbiamo subito la misura dell’impatto che possono avere i nostri bias anche quando si parla di intelligenza artificiale. In questo momento, la ricerca sta seguendo una duplice strada: “Da una parte si sta cercando di “mettere una pezza” a ciò che è stato fatto negli ultimi due decenni in modo un po’ precipitoso: grazie a un’ingegnerizzazione a posteriori, si cerca di accoppiare queste scatole nere a un algoritmo utile per rivelare gli aspetti su cui viene fatta la scelta”. Proprio come nel caso dell’esempio su lupo e husky.

Tuttavia, la sfida per il futuro è quella di creare nuovi modelli di machine learning che siano già progettati per essere comprensibili. Si parla di “explainable AI”, intelligenza artificiale in grado di decodificare il senso delle scelte in modo comprensibile a sviluppatori ed esperti.

“Una delle linee di ricerca attuali si basa proprio sulla costruzione di algoritmi in grado di fornire una previsione accurata e di spiegare su quali basi l’hanno effettuata – prosegue Pedreschi – Chi appartiene al filone della human-centered AI crede fermamente che non si possa delegare qualunque scelta che abbia una valenza etica o legale a un algoritmo, perché questo non può che incorporare valori e giudizi che gli abbiamo messo dentro noi. Abbiamo quindi bisogno di macchine che ci aiutino a pensare”.

Una tecnologia al servizio della società

Da alcuni anni l’Europa si interroga su come insegnare alle macchine un linguaggio neutro e inclusivo. Nell’ultimo periodo sono stati elaborati documenti importanti, come il libro bianco sull’AI, il documento sulla strategia dei dati, quello sul digitale europeo. Dino Pedreschi è anche uno dei consulenti delle istituzioni europee, per le quali ha recentemente realizzato uno studio sull’impatto dell’intelligenza artificiale e dei big data sulle piattaforme online e sul commercio elettronico.

“Credo che l’Europa stia facendo un salto di qualità, abbandonando la timidezza e la soggezione che ha avuto in passato nei confronti degli Usa e del modello delle grandi corporation americane – commenta l’esperto – Oggi si propone di disegnare un digitale europeo che poggi su fondamenta diverse, come l’inclusività, la riduzione delle differenza sociali e l’accettazione delle diversità. In questo modello la tecnologia digitale è al servizio dell’idea di società europea che vorremo realizzare e non viceversa”.

Secondo Pedreschi abbiamo di fronte a noi una grande opportunità: “Oggi possiamo puntare ad avere una tecnologia che va nella direzione che vogliamo. Finalmente si è capito che questo non è più un sogno, ma un obiettivo alla portata”. E per spiegarsi meglio, Pedreschi ripesca un’emozionante avventura del nostro recente passato: “Quando abbiamo voluto andare sulla Luna l’abbiamo fatto. Oggi la Luna dell’Europa è una società digitale inclusiva che accolga tutte le sue diversità”.


Leggi anche: Fake People: come i bot stanno cambiando la nostra vita

Articolo pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   

Immagine: Wikimedia Commons

Rispondi

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Michela Perrone
Appassionata di montagna e di tecnologia, scrivo soprattutto di medicina e salute. Curiosa dalla nascita, giornalista dal 2010, amo raccontare la realtà che mi circonda con articoli, video e foto. Freelance dentro e fuori, ho una laurea in Comunicazione e un master in Comunicazione della Scienza.
%d blogger hanno fatto clic su Mi Piace per questo: