martedì, Settembre 28, 2021
TECNOLOGIA

Un traguardo storico per le interfacce cervello – computer

Per la prima volta nella storia delle neuroscienze e della neuroingegneria, un dispositivo artificiale è stato in grado di riconoscere intere frasi a partire dai segnali cerebrali. Il ruolo delle interfacce cervello-computer si sta mostrando sempre più decisivo nel panorama scientifico contemporaneo.

È possibile recuperare il linguaggio dopo averlo perduto a causa di lesioni cerebrali? Da oggi, finalmente, la ricerca scientifica risponde: sì.
In Italia quasi un milione di persone convive con i danni prodotti della prima causa in assoluto di disabilità: l’ictus. Le più temibili conseguenze di questa patologia improvvisa sono la paralisi e la difficoltà o incapacità di articolazione del linguaggio. A oggi, le conseguenze per molti pazienti sono considerate irreversibili, tuttavia un nuovo e straordinario traguardo raggiunto dalla ricerca neuroscientifica sta accendendo un lume di speranza in molte persone.

Per la prima volta sono state decifrate frasi complete

In uno studio, pubblicato su The New England Journal of Medicine e coordinato dal dottor Edward Chang dell’Università di San Francisco, i ricercatori hanno coinvolto un paziente colpito da ictus 15 anni fa, affetto da paralisi e anartria (ovvero da difficoltà o, come nel caso in questione, da incapacità di articolare i suoni e quindi di parlare). Dopo aver applicato elettrodi ad alta intensità sull’area cerebrale deputata all’articolazione dei suoni, la corteccia sensomotoria, i ricercatori li hanno collegati a un computer in grado di trasformare i segnali cerebrali in algoritmi. Il dispositivo ha processato i dati e, in tempo reale, li ha convertiti in parole e frasi, le quali sono state poi proiettate sullo schermo che era stato posto di fronte al paziente.
Si tratta della prima volta in cui un dispositivo artificiale è stato in grado di convertire i segnali cerebrali in frasi complete.

L’algoritmo utilizzato è stato in grado di elaborare un repertorio di 50 parole, il quale a sua volta poteva generare oltre 1000 frasi. In un totale di 48 sessioni e 22 ore di registrazione dell’attività cerebrale, il sistema è riuscito a decodificare circa 15 parole al minuto, con una media della percentuale di successo nel riconoscimento della parola che si attestava intorno al 74%. Il trial migliore ha invece fatto registrare il 93% di accuratezza.

Le interfacce cervello – computer

I primi tentativi di decifrare i segnali neurali attraverso un computer o, in generale, di costruire una macchina in grado di elaborare informazioni e convertirle per sopperire a un’incapacità organica nella trasmissione delle informazioni neurali risale a diversi decenni orsono. Il termine specifico infatti, brain-computer interfaces, appare per la prima volta nel 1973 in un articolo apparso su Annual Review of Biophysics and Bioengineering da Jacques Vidal, ricercatore all’Università della California.
Le interfacce cervello-computer hanno compiuto passi da gigante negli ultimi anni. Questo risultato è stato raggiunto grazie allo straordinario avanzamento scientifico delle neuroscienze, reso a sua volta tale dallo sviluppo di sofisticate tecniche di analisi dell’attività cerebrale, come la risonanza magnetica funzionale (fMRI), che permettono di osservare il cervello in vivo.

Le interfacce cervello-computer possono essere di vario tipo. Esistono interfacce mono-direzionali, come nel caso specifico che abbiamo riportato sopra, oppure bi-direzionali. Le prime prevedono una comunicazione a senso unico dal cervello al computer, in cui i segnali cerebrali vengono rilevati, processati e convertiti in informazioni utili. Le seconde garantiscono invece una strada “a doppia corsia”, nel senso che forniscono un canale di ritorno delle informazioni processate, dal computer al cervello: in questo modo è possibile un reciproco scambio e un’integrazione sistematica dell’informazione. Un recente esempio di interfaccia bi-direzionale è fornito dai dispositivi ideati per evocare sensazioni tattili in un braccio robotico. In questo caso, infatti, è di fondamentale importanza per il paziente ottenere un feedback dall’interfaccia, feedback che deve avere le medesime caratteristiche sensoriali garantite dai recettori nervosi organici non più disponibili.
A seconda della tipologia di disabilità, poi, i professionisti possono valutare l’impianto di un’interfaccia non invasiva oppure invasiva. Nel primo caso si applica la tipica cuffia associata agli elettrodi sulla testa del paziente e si procede con la registrazione dei segnali; nel secondo caso invece bisogna procedere con un intervento chirurgico per impiantare gli elettrodi direttamente sulla porzione di cervello che si intende coinvolgere nella procedura.

Frontiere: un mix di intelligenza naturale e intelligenza artificiale

Il repentino e inarrestabile progresso di questi dispositivi sta attirando l’attenzione di moltissimi investitori, in quanto non influenza solo la pratica medica per la gestione delle disabilità, ma pare potenzialmente fruibile anche da individui del tutto sani. Il mercato guarda, ad esempio, al settore dei videogiochi, oppure al training sportivo o, spingendosi ai limiti della discussione etica, al miglioramento delle prestazioni neurocognitive e alla cosiddetta “lettura del pensiero”.

I limiti, in verità, esclusi quelli etici, sono più di natura prettamente scientifica che tecnico-pratica. Il gap che attualmente sembra più difficile colmare per raggiungere simili obiettivi non è causato dall’assenza di adeguata sofisticatezza informatica e tecnologica delle interfacce. Piuttosto, è l’ancora scarsa conoscenza scientifica del nostro cervello a impedire il raggiungimento di un simile traguardo. I primi cognitivisti ritenevano che il sistema neurocognitivo umano dovesse essere indagato partendo dalle sue analogie con il calcolatore artificiale: cervello è hardware, mente è software. Una volta compresi i processi e le funzionalità che li caratterizzano, il mistero sarà risolto. Fior di neuroscienziati hanno poi smentito questa semplificazione, rivelando l’enorme “stupidità” del calcolatori attuali (figuriamoci quelli dell’epoca in cui scrivevano i primi cognitivisti: anni ’60 e ‘70) rispetto all’estrema complessità della mente-cervello umana.

Comunque, nonostante i limiti, le previsioni per il futuro parlano chiaro. Come afferma il bioeticista Marcello Ienca, titolando così il suo recente saggio, il prossimo passo da compiere sarà “un’unione di intelligenza naturale e artificiale”.


Leggi anche: Intelligenza artificiale, servono affidabilità e trasparenza

Articolo pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   

Immagine: Pixabay

Rispondi

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Simone Chiusoli
Sono laureato in scienze cognitive e mi affascina tutto ciò che ha l'essere umano come oggetto di studio scientifico. Grazie al MCS della SISSA ho scoperto il potenziale incredibile della comunicazione scientifica e quanto essa si riveli indispensabile oggigiorno. Attualmente mi sto dedicando alla comunicazione dell'evoluzione attraverso una prospettiva interdisciplinare, che faccia dialogare biologia e scienze umane.
%d blogger hanno fatto clic su Mi Piace per questo: