mercoledì, Dicembre 19, 2018
ricerca

I suoni diventano immagini con EyeMusic, per aiutare i non vedenti

RICERCA – SSDs, o sensory substitution devices: apparecchi non invasivi in grado di fornire informazioni visive ai non vedenti, fornendo loro gli stimoli attraverso quei sensi che operano correttamente. Ascoltare le forme, sentire i colori? Potrebbe ora essere possibile.

Come funziona uno di questi SSD? Come spiegano gli autori del nuovo studio, pubblicato su Current Biology, il paziente indossa una videocamera in miniatura connessa a un piccolo computer (oppure a uno smartphone) e a un paio di cuffie. Le immagini riprese dalla videocamera vengono convertite in “paesaggi sonori” attraverso un apposito algoritmo, e le informazioni così ottenute arrivano direttamente alle orecchie tramite le cuffie, pronte per essere elaborate e interpretate. Se ne era già parlato su Restorative neurology and neuroscience, quando la tecnologia era in fase di sviluppo, ma con l’ultimo SSD elaborato i passi avanti sono stati notevoli.

Vedere con le orecchie

Con l’ultimo modello di SSD chiamato EyeMusic, per esempio, questo è ciò che succede: all’orecchio arrivano tutte le informazioni riguardo a colori, forme e posizione degli oggetti nello spazio, sotto forma di note musicali. Come riportano gli autori, un gruppo di persone non vedenti, parallelamente a un gruppo di persone con normali capacità di visione (a cui erano stati coperti gli occhi), tramite EyeMusic è riuscito efficacemente a interagire con l’ambiente circostante, rapportandosi con gli oggetti e raggiungengo via via livelli di complessità sempre maggiori. Il progetto è il frutto del lavoro di team dell’Edmond and Lily Safra Center for Brain Sciences e l’Institute for Medical Research Israel-Canada della Hebrew University of Jerusalem.

Come spiega Amir Amedi, il leader dello studio che sta ora sperimentando l’efficacia di EyeMusic sui pazienti, il dispositivo si è rivelato in grado di guidare le persone anche in movimenti accurati e piuttosto veloci, oltre ad aiutarle nello svolgimento di compiti molto complessi. I pazienti sui quali è stato sperimentato sono infatti stati in grado di elaborare le immagini tradotte in suono che arrivavano dalle cuffie, e utilizzare le informazioni in modo da localizzare la posizione di altre persone nella stanza, identificarne l’espressione facciale e leggere lettere e intere parole. Se volete vederli all’opera, qui trovate un video con i pazienti che provano EyeMusic, e qui potete scaricare l’app, dall’Apple app store.

Gli SSD non sono ancora utilizzati diffusamente, ma presto la situazione potrebbe cambiare. Le nuove tecnologie permetteranno infatti la realizzazione di dispositivi più piccoli e leggeri, a prezzi più accessibili. Lo spunto più interessante emerso dalle ricerche, secondo gli autori, è che rispetto all’ormai radicata concezione di una corteccia cerebrale divisa tra aree separate (che si occupano distintamente dell’elaborazione di impulsi visivi, uditivi e via dicendo), le nuove scoperte dimostrano che molte di queste sono invece caratterizzate dalle attività computazionali che svolgono, e possono essere attivate da più sensi. Questo vale anche per le persone che non sono mai state esposte all’informazione sensoriale “originale”, per esempio quelle non vedenti dalla nascita.

Toccare le parole, ascoltare le forme

I ricercatori hanno notato che le persone congenitamente non vedenti che avevano imparato a leggere con il tatto (grazie al Braille) o con l’udito (con l’SSD) utilizzavano le stesse aree della corteccia visiva usate durante la lettura da una persona vedente. C’è un’intera e vasta rete di regioni nel cervello umano appositamente dedicata a percepire ed elaborare le forme dei corpi, da quella che si occupa della visione vera e propria fino alla cosiddetta EBA (area exastriata del corpo) e a tutte quelle che, nello specifico, decifrano i movimenti nello spazio, le emozioni e le intenzioni.

Durante lo sui pazienti non vedenti, il team di ricercatori ha confermato che la loro EBA era funzionalmente connessa all’intera rete di processamento delle informazioni che entra in funzione ne lle persone vedenti. “Il cervello umano è una struttura molto più flessibile di quanto pensassimo”, commenta Amedi. “Con tecnologie adatte e il giusto allenamento, le aree del cervello possono essere ‘risvegliatè e portate a elaborare informazioni visive anche dopo essere rimaste sopite per anni, oppure non aver mai avuto a che fare con la luce”.

Eleonora Degano
Biologa di formazione, oggi giornalista e traduttrice freelance specializzata in zoologia, etologia e cognizione animale; collaboro soprattutto con l’edizione italiana di National Geographic e faccio parte della redazione di OggiScienza. Nel 2017 è uscito il mio primo libro «Animali. Abilità uniche e condivise tra le specie» pubblicato da Mondadori Università. Lo trovate qui ➡ http://amzn.to/2i2diPu

2 Commenti

Rispondi

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

%d blogger hanno fatto clic su Mi Piace per questo: