lunedì, Settembre 23, 2019
ricerca

Ascolto e lettura attivano le stesse aree della corteccia cerebrale

Attraverso la risonanza magnetica i ricercatori dell'Università di Berkeley hanno scoperto somiglianze molto forti nella rappresentazione del significato nelle aree cerebrali leggendo o ascoltando.

Non tutti amano perdersi in ore di lettura, ma questo non significa che una buona storia non sia apprezzata. D’altra parte, come ha recentemente dimostrato un gruppo di ricercatori dell’Università della California, Berkeley, le diverse categorie di parole attivano, in differenti individui, le stesse aree del cervello, siano lette oppure ascoltate. La rappresentazione semantica dell’informazione è quindi indipendente dalla modalità con cui viene recepita. E, per vedere quali particolari aree della corteccia cerebrale si attivano con la lettura o l’ascolto, i ricercatori hanno anche creato una mappa tridimensionale e interattiva che consente di distinguere le aree attivate a seconda del gruppo di parole considerato: uno strumento che, in futuro, potrà essere d’aiuto per lo studio e la gestione di disturbi della lettura o del linguaggio.

Una mappa topografica per il cervello

Per disegnare la mappa, i neuroscienziati hanno sottoposto a risonanza magnetica funzionale, una tecnica di imaging che rileva i cambiamenti associati al flusso sanguigno, due gruppi di volontari. Questi ultimi leggevano oppure ascoltavano per diverse ore delle storie di narrativa tratte da un podcast molto popolare negli Stati Uniti, il Moth Radio Hour. I dati ottenuti da entrambe le sessioni, di lettura e di ascolto, sono stati utilizzati per costruire una mappa topografica che, sulla base di modelli statistici, consente di prevedere in modo accurato quali aree della corteccia vengono attivate da diversi gruppi di parole. Questi gruppi semantici (raggruppati in categorie di parole quali “sociali”, “visive”, “violente”…) sono rappresentati con diversi colori sull’immagine tridimensionale del cervello, in una mappa che copre almeno un terzo della corteccia.

Che ci fosse una tale sovrapposizione tra le aree attivate dalla lettura e quelle attivate dall’ascolto delle stesse storie è stata una sorpresa per i ricercatori. «Sapevamo che alcune aree del cervello si attivano in modo simile quando una persona ascolta o legge una stessa parola», spiega in un comunicato Fatma Deniz, ricercatrice all’Helen Wills Neuroscience Institute dell’Università della California, Berkeley e prima autrice dello studio. «Ma non ci aspettavamo somiglianze così forti nella rappresentazione del significato in un ampio network di aree cerebrali con entrambe le modalità di recezione».

 Il significato delle parole come base del linguaggio

La capacità di estrapolare il significato sia da parole lette che da parole ascoltate, scrivono gli autori, è parte integrante del linguaggio umano, ed è dunque importante capire la precisa relazione tra la rappresentazione del cervello e l’informazione percepita in un modo oppure nell’altro. Lo studio appena pubblicato, oltre a mostrare che le persone acquisiscono le informazioni semantiche in modo simile sia che leggano sia che ascoltino, può anche essere d’aiuto per alcuni disturbi del linguaggio e della scrittura, quali afasia o dislessia. La mappa prodotta dai ricercatori, che sarà messa online questo mese, può essere infatti utilizzata per confrontare l’elaborazione dell’informazione tra persone sane e quelle colpite da questi disturbi, così da supportare le misure di gestione o intervento.

«Se in futuro scoprissimo che il cervello delle persone dislessiche ha una rappresentazione semantica del linguaggio ricca quando ascoltano un audiolibro o un’altra registrazione, potremmo decidere di impiegare di più questi materiali a scuola», spiega Deniz. Allo stesso modo, le mappe potrebbero essere d’aiuto per l’ampia gamma di disturbi che va sotto il nome di auditory procession disorder, nella quale il cervello non riesce a processare correttamente l’informazione uditiva, oppure per le persone che hanno difficoltà a parlare a causa di un ictus o un altro danno cerebrale.

Ora, spiega ancora Deniz, i ricercatori vogliono indagare la rappresentazione semantica dell’informazione anche in altre condizioni, ad esempio con persone che parlano lingue diverse dall’inglese, o che hanno disturbi dell’apprendimento legati al linguaggio.


Leggi anche: I libri che aiutano l’apprendimento dei neonati

Articolo pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   

Fotografia: Pixabay

Anna Romano
Biologa molecolare e comunicatrice della scienza, amo scrivere (ma anche parlare) di tutto ciò che riguarda il mondo della ricerca.

Rispondi

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

%d blogger hanno fatto clic su Mi Piace per questo: