SCOPERTE

Nuovi software, motori di scoperta

SCOPERTE – Lo Human Brain Project è superato? Con 1,2 miliardi di euro, dovrebbe costruire entro il 2020 una piattaforma informatica che consenta “di arrivare a una nuova comprensione del cervello, a nuove terapie per le malattie cerebrali e a nuove tecnologie computazionali simili al cervello”. Altri ci hanno già pensato.

Centinaia di software, alcuni gratuiti, altri no, fanno inferenze e generano ipotesi a partire da un insieme sempre più vasto di articoli scientifici che nessuno ha tempo di leggere. I  più ambiziosi dovrebbero aiutare gli scienziati a identificare quali ricerche ed esperimenti fare. Nel programma BrainSCANr, Bradley e Jessica Voyteck, dell’Università della California a San Diego, hanno compilato un “dizionario”  utilizzando i “NeuroNomi“, l’Atlante delle scienze cognitive e altre base-dati di neuroscienze. Per ora comprende

27 farmaci, 7 metodi, 39 sostanze neurochimiche, 103 patologie, 29 sulla sostanza bianca, 124 aree cerebrali, 345 funzioni cognitive

e i loro sinonimi (quello di zona incerta è zona incerta) che, una volta abbinati, hanno un significato abbastanza univoco (zona incerta in inglese dovrebbe esserlo). Per esempio si inserisce la patologia “post-traumatic stress disorder” nel motore di ricerca che vaglia la letteratura e mostra con due tipi di grafici i collegamenti positivi tra altri termini che figurano nel dizionario e, sotto, gli articoli più rilevanti. La premessa è che

da qualche parte in tutto il caos e il rumore degli oltre 20 milioni di articoli su PubMed, deve esserci quale forma di ordine e di razionalità.

BrainSCANr ha parecchi difetti, avvertono gli autori, la letteratura viene aggiornata una volta al mese e mancano molti termini che gli utenti sono invitati a indicare. Può darsi che i risultati non siano ancora molto utili, però sono belli da vedere.

Se vi viene in mente una molecola promettente, mettiamo un inibitore dell’acetilcolina, tra un po’ potrete usare il metodo d’inferenza messo a punto da Pauline Gloaguen et al., coordinati da Anne Poupon dell’Institut National de la Recherche Agronomique, a Tours. Vi dirà qual è il recettore che la molecola dovrebbe “tappare” e com’è fatto fra i circa 1.500 recettori controllati sperimentalmente. Per ora ci sono sopratutto recettori, ormoni e “reti segnaletiche” riguardanti la riproduzione dei bovini e la produzione di latte, ma si sta ampliando.

Il Watson Discovery Advisor dell’IBM è già pronto sul Cloud. Suggerisce scoperte biomediche, a partire da un’analisi di articoli che parlano di molecole di ogni tipo, e nel caso delle chinasi sette delle sue nove “retro-previsioni” per il decennio scorso sono state corrette. Il servizio, a pagamento, viene per ora utilizzato da case farmaceutiche.

A proposito di farmaci, da un anno la Food and Drug Administration (1) statunitense prova un programma che filtra le richieste di informazioni via Google e Bing nelle quali un sintomo è associato al nome di due o più farmaci, per vedere se in combinazione questi ultimi producono effetti collaterali da verificare.

I programmi non hanno né ironia né pregiudizi, dice un collaudatore di Watson all’Economist, e sarà senz’altro vero. Però hanno una curiosità limitata da parole-chiave, non le usano fuori contesto o metaforicamente per associare idee e la teoria del “garbage in garbage out” non è ancora stata smentita. Prima di accettare un loro suggerimento per una tesi di dottorato o una richiesta di fondi, forse conviene lo stesso (ri)leggere “Why most of research findings are false“.

(1) Non è dato sapere se viene googlato spesso “Ebola” e “oli essenziali” o “argento colloidale”, ma di recente l’FDA ha vietato a un’azienda di venderli come prevenzione e cura dell’infezione. In Italia, l’Agenzia del Farmaco lascerà correre?

Pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.    

Crediti immagine: Jon Sullivan/Public domain

3 Commenti

  1. Scusi la mia ignoranza cara Custode ricadiamo immagino nel filone, di cui tanto si parla, dei big data? E cos’è la teoria del garbage in-garbage out?

  2. Robo,
    sì, all’inizio quei software che estraggono “configurazioni ricorrenti” dai big data promettono meraviglie, però dopo un po’ non se ne parla più.

    La teoria dice “pattume in entrata, pattume in uscita”: è difficile che un generatore di ipotesi tenga conto di risultati irriproducibili se non sono stati smentiti da un’altra pubblicazione (evento molto raro)

    1. Grazie cara Custode. Mi sono anche letto l’abstract del famoso lavoro che ha linkato. Ora, mi perdonerà ma io prendo la ricerca molto sul serio (nonostante io sia ignorante e ne sia fuori) e nel corso degli anni qui ho letto di 1)riviste predone e cazzare 2)problemi legati alla iperproduzione di lavori (ed alla necessità di produrli) 3)difficoltà nell’implementare una peer review efficace 4)limiti dei coefficenti utilizzati per estrapolare il valore delle riviste 5)nella biomedica grossi problemi di riproducibilitá 6)sempre nella biomedica la questione dei lavori registrati ma non pubblicati, e anche quando registrati non con i dati completi e/o non nei tempi giusti. Accanto a tutto questo, proposte per migliorare il sistema, raccolta firme per la pubblicazione di tutti i dati di tutti i lavori etc. Ora la prego di scusarmi se approfitto di lei perché io da solo non sono in grado di ricavarne granché, ma…a che punto siamo?

Rispondi

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

%d blogger hanno fatto clic su Mi Piace per questo: