FUTURO – È un lavoro che evoca scenari fantascientifici, ancora lontani, ma che potrebbero diventare una realtà concreta. Il risultato ottenuto da Shinji Nishimoto, neuroscienziato dell’Università di Berkeley, è già a dir poco sorpendente. Nishimoto e colleghi infatti sono riusciti ricostruire quale filmato un soggetto stava osservando solo in base all’attivazione cerebrale registrata con una risonanza magnetica funzionale.
Come scrivono gli autori stessi nel paper pubblicato lo scorso giovedi su Current Biology “questo tipo di modelli potrebbe permettere la ricostruzione di contenuti mentali dinamici, come per esempio l’immaginazione visiva naturale,” e potrebbe “essere usata per decodificare stati mentali involontari (sogni o alluncinazioni), anche se potrebbe risultare difficile determinare se il contenuto decodificato sia accurato.”
Vedere i sogni degli altri? Per il momento si tratta solo di vedere attraverso gli occhi degli altri. Come si è giunti a questo risultato? I test sono stati fatti solo su tre persone (la procedura era molto lunga e richiedeva di stare fermi dentro un macchinario per la risonanza magnetica per diverse ore): lo stesso Nishimoto e altri due ricercatori che hanno partecipato allo studio come soggetti.
Due sono state le fasi della ricerca. I soggetti hanno osservato due serie di filmati. I dati sull’attivazione delle aree visive primarie ottenuti con la prima batteria di filmati (spezzoni di film hollywoodiani) sono serviti come fase di training per i modelli di decodifica usati. In pratica un programma veniva “ingozzato” con queste immagini e pian piano imparava che tipo di attivazione cerebrale (dividendo il cervello in voxel, pixel tridimensionali) corrispondeva all’informazione dinamica del filmato.
La seconda serie di filmati veniva invece usata in fase di test, per misurare l’accuratezza dell’algoritmo dopo la fase di training. Circa 18 milioni di secondi di filmati generici tratti da youtube (in nessuno erano contenuti gli spezzoni visti dai soggetti) venivano fatti processare dall’algoritmo, che produceva una previsione dell’attivazione cerebrale che avrebbero provocato in ciascun soggetto. Successivamente i cento spezzoni che il computer stesso giudcava come più simili ai video che i soggetti avevano probabilmente visto, sono stati fusi ed è stato prodotto un filmato che rappresenta una ricostruzione (piuttosto confusa eppure riconoscibile) del filmato originale (vedi filmato sopra).
In pratica le attivazioni prodotte dall’algoritmo per una grande varietà di immagini in movimento sono state usate come libreria di “mattoncini visivi” (o forse potremmo chiamarle “pennellate”?) da cui attingere per ricostruire il film visto dai soggetti, scegliendo ciascuna pennellata, appunto, solo in base all’attivazione cerebrale dei soggetti in fase di test. (vedi filmato sotto).
Oltre alle enormi prospettive che questo studio apre per quanto riguarda la possibilità per esempio di sviluppare strumenti diagnostici, o interfacce uomo-macchina soprattutto per le persone con gravi disabilità, almeno altre due sono le cose notabili che emergono.
In primo luogo Nishimoto è colleghi hanno avuto una conferma sperimentale a livello fisiologico di quanto già osservato a livello comportamentale e cioè che il sistrema visivo è più sensibile alla velocità del movimento nella periferia del campo visivo che nel centro.
La seconda considerazione interessante è che secondo studi recenti i segnali osservabili con la risonanza magnetica funzionale provocati dall’immaginazione visiva sono più evidenti nelle aree visive ventrali-temporali che in quelle primare (al contrario invece di quelle provocate dalla visione diretta di filmati, come in questo studio). Queste osservazioni unite al lavoro di Nishimoto e colleghi suggeriscono, spiegano gli autori, che un algoritmo ibrido che combini quello usato qui con un modello “semantico” della forma sviluppato negli studi precedenti (per esempio questo, questo o questo), potrebbe offrire una ricostruzione anche migliore delle esperienza mentali soggettive.