RICERCANDO ALL'ESTERO

Big data astronomici per lo studio delle galassie medusa

L'astrofisica e la cosmologia sono ricche di dati e necessitano di efficienti algoritmi di machine learning e rielaborazione immagini per analizzarli. La ricerca informatica è cruciale nel favorire i progressi metodologici per lo studio dell’Universo.

La costruzione di nuovi e sempre più grandi telescopi, lo sviluppo tecniche di imaging più sensibili e la maggiore accuratezza dei programmi di mappatura del cielo sono fattori che stanno portando (anche) l’astronomia nell’era dei big data.

Se la presenza di informazioni non è un problema, e le osservazioni astronomiche hanno già raggiunto i petabyte di informazione (1015), gli strumenti per decifrarli sono ancora in evoluzione e una delle principali sfide è trovare il modo di analizzare e interpretare questa grande mole di dati.
Marco Canducci è a Birmingham per sviluppare nuovi metodi di machine learning per rispondere alle domande fondamentali sull’evoluzione e le proprietà delle galassie, in particolare le galassie nane e le galassie medusa.


Nome: Marco Canducci
Età: 28 anni
Nato a: Santarcangelo di Romagna (RN)
Vivo a: Birmingham (Regno Unito)
Dottorato in: (in corso) computer science (Birmingham)
Ricerca: Confronto tra simulazioni e osservazioni di astrofisica attraverso machine learning
Istituto: School of Computer Science, University of Birmingham (Regno Unito)
Interessi: suono la tromba, gioco a calcetto
Di Birmingham mi piace: la continua evoluzione della città
Di Birmingham non mi piace: il meteo, la difficoltà nelle relazioni
Pensiero: Lasciate il mondo un po’ migliore di come l’avete trovato. (Robert Baden Powell)


Che tipo di dati astronomici analizzi?

La mia ricerca è focalizzata sui dati delle simulazioni, principalmente quelle numeriche delle galassie ma anche quelle cosmologiche dell’intero Universo. Attualmente sto lavorando con simulazioni di galassie nane che evolvono all’interno dell’ammasso della Fornace, uno degli ammassi di galassie più vicini alla Terra. L’idea è capire se un particolare tipo di galassia osservata dagli astronomi, le galassie medusa, può essere un prodotto dell’evoluzione di galassie nane all’interno della Fornace.

Il confronto tra simulazioni e osservazioni in genere è di tipo visivo, si scorrono man mano le varie osservazioni fino a trovare la simulazione che meglio rispecchia ciò che si vede nel cielo. Per quanto questo tipo di approccio sia valido, lascia molti quesiti aperti innanzitutto perché è a discrezione dell’osservatore e del simulatore; inoltre, alla base delle simulazioni ci sono sempre forti assunzioni; infine, quando si ha a che fare con petabyte di informazioni il lavoro diventa enorme. Avere un metodo di confronto consistente, immediato e il più oggettivo possibile è fondamentale e non solo alleggerirebbe il carico di analisi ma aiuterebbe anche a capire come i dati di input evolvono per dare un certo output.

I dati contengono moltissime informazioni, nel caso di galassie possono riguardare la metallicità, la temperatura, la densità. In genere, nelle simulazioni, queste caratteristiche aggiuntive si distribuiscono in strutture dotate di una certa dimensionalità. Estrarre e studiare queste strutture permetterebbe di capire in che zone ci sono le condizioni ideali per la formazione di nuove stelle e ricavare il processo evolutivo di tutta la galassia.

Come sono fatte queste strutture?

Il mio studio è rivolto alle strutture dette sottodimensionali: in un dataset (collezione di dati) simulato in tre dimensioni, queste strutture possono essere filamenti, piani o superfici. In particolare, i filamenti sono strutture unidimensionali tipiche dei dati sulle interazioni tra galassie.

La mia ricerca consiste innanzitutto nel trovare una formulazione matematica capace di descrivere la dimensionalità intrinseca di un dataset rumoroso, cioè con distribuzione sparsa. E, successivamente, nell’estrarre i filamenti.

In cosa consiste il modello che hai sviluppato?

Sono partito dai dataset simulati con un particolare tipo di codice chiamato SPH (Smoothed Particle Hydrodynamics), che si propone di campionare lo spazio tridimensionale attraverso una distribuzione uniforme di particelle. Da questo presupposto, e usando le leggi dell’idrodinamica, la simulazione di un oggetto astrofisico consiste nel far evolvere posizione e caratteristiche delle varie particelle.
Le particelle della mia ricerca sono quelle che costituiscono il gas denso dell’ammasso della Fornace: ciascuna particella descrive una porzione di volume di fluido e contiene informazioni sulla metallicità, temperatura, densità, … del sistema.

Dopo aver identificato la dimensionalità delle particelle ed estratto quelle unidimensionali, il passo successivo è stato riuscire a distinguere un filamento rispetto a un altro, dato che nei dataset ce ne sono talmente tanti che spesso non è facile selezionarli o contarli o capirne forma e struttura. Per fare ciò abbiamo usato il metodo generative topographic mapping (GTM), modificato in maniera estensiva per comprendere filamenti non proprio 1D ma con struttura più flessibile e rumore attorno.

Per distinguere struttura per struttura le informazioni presenti nel dataset abbiamo sviluppato un metodo che si chiama manifold crawling. I manifold sono una sorta di grandi contenitori di strutture la cui caratteristica principale è essere localmente approssimabili a uno spazio euclideo.

Immaginiamo di essere sul manifold e di camminarci sopra in una certa direzione. Tenendo traccia del nostro percorso possiamo inizializzare una funzione e trovare i parametri che mappano esattamente il segmento su cui mi trovo. Arrivati al bordo del filamento, l’algoritmo è in grado di vedere che non c’è più niente in quella direzione, di fermarsi e tornare al punto iniziale per esplorare l’altra porzione di spazio. Quando il crawling si ferma in entrambe le direzioni, la struttura viene identificata.

Applicando questo processo iterattivamente al dataset, possiamo individuare tutte le strutture presenti e avere, per ciascuna di esse, un modello di rumore che descriva la distribuzione delle particelle attorno al filamento. La GTM che ne deriva permette appunto di vedere come le caratteristiche delle particelle si distribuiscono nelle strutture sottodimensionali.

Quali sono le prospettive future del tuo lavoro?

Il metodo che abbiamo sviluppato è del tutto generale e applicabile a simulazioni di qualsiasi tipo basate sulla presenza di particelle. Il progetto di cui faccio parte si chiama SUNDIAL ed è finanziato dallUnione Europea (Marie Sklodowska-Curie Action n. 721463).

In futuro vorrei applicare lo stesso metodo alle simulazioni cosmologiche, nelle quali sembra che proprio all’incrocio tra due filamenti si trovi il succo dell’informazione. Gli scienziati hanno notato che alcune galassie sono legate tra loro in una enorme rete chiamata rete cosmica e che l’interazione tra le varie strutture non è uniforme ma crea delle sovradensità che per gravità condensano in filamenti e in nodi. Proprio nei nodi si troverebbero super ammassi di galassie.


Leggi anche: Ammassi di galassie per spiegare l’energia oscura

Pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   

Immagine di copertina: Pixabay

Condividi su
Luisa Alessio
Biotecnologa di formazione, ho lasciato la ricerca quando mi sono innamorata della comunicazione e divulgazione scientifica. Ho un master in comunicazione della scienza e sono convinta che la conoscenza passi attraverso la sperimentazione in prima persona. Scrivo articoli, intervisto ricercatori, mi occupo della dissemination di progetti europei, metto a punto attività hands-on, faccio formazione nelle scuole. E adoro perdermi nei musei scientifici.