I miti e i fatti sull’intelligenza artificiale

Ovvero, come un gruppo di autorevoli scienziati propone modelli di sviluppo dell'AI che ne consentano un'evoluzione sicura per l'umanità. Partendo dallo sfatare alcune leggende

Secondo gli scienziati del Future of Life Institute esistono due pericoli da considerare con le nuove tecnologie: costruire macchine con uno scopo distruttivo e perderne il controllo, o costruirne di non pericolose che sviluppino degli obiettivi che non collimano con quelli dell’umanità. Crediti immagine: geralt, Pixabay

ATTUALITÀ – Siete terrorizzati all’idea che le macchine, un giorno non molto lontano, si ribelleranno contro l’umanità?  O, al contrario, appartenete al novero di chi liquida i potenziali sviluppi futuri nell’ambito dell’intelligenza artificiale come poco più che ardita fantascienza?

Se avete risposto sì ad una delle due domande precedenti, potreste scoprire di essere in ogni caso lontani dalla realtà. A spiegarci il perchè ci pensano gli scienziati del Future of Life Institute, la cui missione dichiarata è catalizzare e supportare la ricerca e le iniziative per salvaguardare la vita e sviluppare visioni ottimistiche per il futuro. Individuando, a tal fine, i modi e le strategie più adeguate affinchè l’umanità possa decidere consapevolemente il proprio cammino, tenendo conto delle sfide e degli avanzamenti connessi con le nuove tecnologie.

E si capisce subito che si tratta di gente che non scherza, dando un occhio alla composizione del comitato scientifico dell’avveniristica istituzione: vi si leggono, in successione, i nomi di eminenti rappresentanti del mondo delle corporate tecnologiche, come Elon Musk, ma anche del mondo del cinema, come Alan Alda e Morgan Freeman, passando niente meno che per Stephen Hawking, e includendo quella Francesca Rossi, docente dell’Università di Padova e attualmente chief scientist di IBM, e tra i principali promotori dell’altra grande alleanza nel settore dell’AI, The Partnership on Artificial Intelligence to Benefit People and Society, istituita tra i cinque colossi Facebook, Google, Amazon, Microsoft e, appunto, IBM.

Uno dei principali temi affrontati è, e non poteva non essere, il delicato rapporto tra lo sviluppo dell’intelligenza artificiale e la sicurezza degli essere umani. Tuttavia, l’approccio si caratterizza subito per una notevole pragmaticità, soprattutto nell’individuazione di alcuni falsi miti sull’argomento che sono, quasi inevitabilmente, entrati a far parte dell’immaginario collettivo negli ultimi anni, a cui gli scienziati dell’istituto contrappongono più realistici fatti. Passiamo allora in rassegna le interessanti contrapposizioni mito-fatto che ne derivano:

Mito 1: La superintelligenza, ossia la singolarità tecnologica, il punto della storia in cui la macchina supererà l’uomo, si manifesterà inevitabilmente entro il 2100. Oppure non si manifesterà mai.
Fatto 1: La superintelligenza potrebbe manifestarsi tra qualche decennio, qualche secolo, o mai. Gli esperti di AI hanno diverse opinioni in merito, ma ad oggi semplicemente non lo sappiamo.

Mito 2: Solo gli oppositori dell’utilizzo delle macchine temono l’intelligenza artificiale.
Fatto 2: Molti dei più eminenti ricercatori nell’ambito AI hanno espresso gravi preoccupazioni.

Mito 3: Una intelligenza artificiale potrebbe diventare cosciente o malefica.
Fatto 3: Un’intelligenza artificiale potrebbe diventare estremamente specializzata e perseguire obiettivi non allineati con quelli dell’umanità

Mito 4: I robot costituiscono la preoccupazione principale
Fatto 4: Un algoritmo disallineato rispetto alle esigenze umane costituisce la preoccupazione principale. Non ha bisogno di un corpo fisico, gli basta una connessione di rete.

Mito 5: L’AI non può controllare gli umani.
Fatto 5: L’intelligenza può rendere possibile una forma di controllo.

Mito 6: Le macchine non possono avere obiettivi.
Fatto 6: Un missile teleguidato, ad esempio, ha degli obiettivi.

Mito 7: La superintelligenza è assai lontana nel tempo.
Fatto 7: Ci vorranno decine di anni per arrivare alla superintelligenza, ma sono esattamente quelli che potrebbero occorrere all’umanità per capire come renderla sicura e non dannosa.

Secondo gli scienziati del Future of Life Institute, in sintesi, esistono due principali pericoli da considerare quando si parla di sviluppo di nuove tecnologie: il primo è quello di costruire macchine con uno scopo distruttivo, e perderne per qualche motivo il controllo.

Il secondo è molto più subdolo, perchè meno controllabile: costruire macchine che apparentemente non siano pericolose, o che addirittura siano progettate per scopi benefici, e che tuttavia sviluppino nel corso del loro ciclo di vita degli obiettivi che non collimano con quelli dell’umanità. Costruttivamente, allora, quali strade vengono proposte o indicate dagli scienziati per garantire che l’AI non diventi un nemico mortale dell’uomo?

Ce ne sono alcune che sembrano promettenti: ad esempio, il cosiddetto recursive self-improvement, ovvero insegnare all’intelligenza artificiale a migliorare sè stessa, basandosi sui propri errori. Oppure, uscire dalla calma e dall’isolamento asettico dei laboratori per abbracciare l’idea che una intelligenza artificiale eticamente evoluta debba essere sviluppata nel mondo reale. In modo da familiarizzare con gli umani, apprendendone caratteristiche, desideri, timori. E restando attaccati, in questo caso, alla speranza che non ne apprenda i peggiori e più distruttivi errori.

Leggi anche: Algoritmi per l’intelligenza artificiale: guida sintetica (non solo) per ingegneri

Pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   

Informazioni su Gianpiero Negri (38 Articles)
Appassionato di scienza, tecnologia, in particolare meccatronica, robotica, intelligenza artificiale e matematica applicata, letteratura, cinema e divulgazione scientifica.

2 Commenti su I miti e i fatti sull’intelligenza artificiale

  1. Aggiungerei una considerazione.
    Lintelligenza artificiale non può essere altro che un software che “vive” su un substrato hardware.
    Chi ha sviluppato software di una certa complessità si è sicuramente trovato a sperimentare il così detto “insight”.
    Uno strano fenomeno per cui risolvi un passo complicato senza riuscire a ricostruire come ci sei arrivato.
    Il tutto “misteriosamente” funziona e…lo lasci funzionare.
    Quello che non potrai mai verificare è il funzionamento sulla totalità delle situazioni che il tuo software potrebbe affrontare…
    Qui sta il problema…
    Potremmo essere costretti a staccare la spina per l’impossibilità di proseguire…
    (Hal 9000)…

1 Trackback / Pingback

  1. I miti e i fatti sull’intelligenza artificiale – ReportNews

Lascia un commento

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...

%d blogger cliccano Mi Piace per questo: