Processori nano-fotonici: il senso della vista dei computer
I segnali luminosi possono essere usati per conservare dati su circuiti integrati. Esistono nuove tecnologie in grado di elaborare e trasmettere informazioni attraverso la luce.
In un periodo in cui siamo confinati in casa vi portiamo ancora in giro per il mondo, ad ascoltare le storie degli scienziati italiani all’estero. Insegnare a un computer “come vedere” non è una cosa da poco. Il nostro cervello può distinguere facilmente un gatto, un fiore e una bici ma, per un computer, è un processo abbastanza difficile da imitare. Per dare un senso a ciò che vede e identificare luoghi, persone, oggetti, edifici, un computer si affida a tecnologie quali la visione artificiale e il riconoscimento di immagini. Le applicazioni attuali e future di questi sistemi includono il riconoscimento facciale negli smartphone e sui social network, la robotica, la diagnostica per immagini, le auto a guida autonoma.
Elena Goi è a Shanghai (Cina) per disegnare e sviluppare sistemi capaci di analizzare, catalogare e decriptare immagini basati su processori nano-fotonici e non su componenti elettroniche. L’obiettivo di Goi è realizzare delle reti neurali ottiche nelle lunghezze d’onda dal visibile all’infrarosso.
Nome: Elena Goi
Età: 31 anni
Nata a: Gemona del Friuli (UD)
Vivo a: Shanghai (Cina)
Dottorato in: fisica applicata (Melbourne, Australia)
Ricerca: Machine learning ottico attivato da Direct Laser Writing
Istituto: School of science, Department of Physics RMIT University (Australia), Dept of Optical-Electrical and computer engineering, USST Shanghai (Cina)
Interessi: equitazione, surf, yoga, andare al cinema, provare nuovi ristoranti
Di Shanghai mi piace: la parte antica della città, la cucina, la socialità
Di Shanghai non mi piace: il blocco di internet
Pensiero: Be brave enough to suck at something new
Qual è il vantaggio delle reti neurali ottiche rispetto a quelle sviluppate al computer?
Le reti neurali ottiche si basano su un’insieme di lenti o reticoli di diffrazione disegnati e messi in fila in maniera appropriata in modo da elaborare un segnale luminoso e fornire una certa informazione desiderata. I principali vantaggi sono l’elevata velocità e il basso consumo energetico.
Consideriamo il riconoscimento facciale che usiamo per sbloccare i nostri telefoni. Si parte dall’immagine del nostro volto catturata da una telecamera, che poi viene digitalizzata e data in pasto a un algoritmo, fino alla conferma o meno della proprietà del telefono. Anche se a noi questo procedimento sembra rapido, in realtà richiede abbastanza tempo ed energia tra foto, digitalizzazione, passaggio attraverso l’algoritmo, elaborazione della risposta e sblocco del telefono. Se venisse fatto otticamente, innanzitutto non si avrebbe consumo di energia, perché di fatto la luce semplicemente scorre, e poi ci si metterebbe meno tempo, perché i fotoni viaggiano alla velocità della luce. Infine, trattare un’immagine, che è un insieme di fotoni in un campo, come qualcosa di digitale non è sempre un metodo efficace, perché non permette di sfruttare al massimo le capacità di manipolazione ottica né di cogliere tutti gli aspetti dei fasci di luce, come la lunghezza d’onda, la polarizzazione, il momento angolare.
Come vengono disegnate le reti neurali ottiche?
La mia ricerca consiste proprio nel capire come strutturare l’elemento ottico in modo che, a partire da un’immagine di partenza, si arrivi a un output a essa correlato, anche senza dover fissare input e output universali ma facendo sì che a input diversi corrispondano output diversi. Cosa possibile tramite machine learning.
Nella realizzazione del sistema, c’è una prima fase al computer per decidere il design della lente o del reticolo di diffrazione; e una seconda fase in cui stampo la lente con la stampante laser e la caratterizzo attraverso un sistema ottico.
Il reticolo di diffrazione consiste in una serie di strati polimerici collegati tra loro e formati da tanti neuroni artificiali attraverso i quali passa la luce. Quando la luce colpisce il neurone, questo si eccita, fa diffrazione e funge a sua volta da sorgente di onde che andranno a eccitare lo strato successivo. Di strato in strato, l’immagine di partenza viene modificata fino a dare il risultato finale.
Con il computer cerco di capire come disegnare lo spessore di questi strati per far sì che l’immagine di partenza e quella finale siano correlate, ovvero che esista un nesso tra le due. Supponiamo che l’immagine di partenza sia un 1 e quella finale un’area divisa in tanti piccoli quadrati, in cui quello in alto a destra corrisponde all’1: l’obiettivo è sistemare gli strati di diffrazione in modo tale che la distribuzione dell’intensità della luce nell’area finale rimandi all’1 di partenza. Si può anche partire da un 1 scritto a mano e ottenere un 1 stampato ma in questo caso ci vuole un sistema ottico più complesso perché le immagini di input non sono sempre uguali tra loro e possono variare un po’.
Il sistema è molto flessibile, può riconoscere numeri, lettere, immagini; e può essere anche usato per fare operazioni matematiche e algebriche, con immagini che si comportano come matrici.
Che dimensioni hanno questi sistemi?
Tutti questi strati, per funzionare, devono avere distanze molto precise ed essere allineati molto bene. Nel mio caso, il fine ultimo è usare segnali che siano nello spettro tra il visibile e l’infrarosso e il sistema che ho creato ha la forma di un cubo di dimensioni xy più piccole di un capello e z sempre sotto i 100nm.
La parte difficile è stata proprio creare fisicamente il tutto. Finora di questi sistemi esiste un unico esempio (ne abbiamo parlato anche su OggiScienza), grande decine di centimetri e funzionante nelle microonde, una lunghezza d’onda molto lunga. Se vogliamo far stare tutto in un telefono, le dimensioni devono essere molto più piccole e la stampante 3D si è rivelata molto utile per i miei obiettivi. Ho sfruttato il processo Direct Laser Writing, che ricrea tutti i dettagli calcolati al computer e può stampare più o meno su ogni superficie (vetro, campioni da laboratorio, camere, altre tecnologie), così da integrare direttamente i nostri sistemi sul chip.
Quali sono le prospettive future del tuo lavoro?
Vorrei portare l’elaborazione delle immagini a un altro livello, cominciando a cambiare il momento angolare, la polarizzazione, la lunghezza d’onda e lavorare con più immagini nello stesso momento.
Un’altra idea è sfruttare la capacità di questi sistemi di riconoscere diverse immagini e inserirli su strumenti come endoscopi per esaminare in vivo i tessuti e le cellule e contribuire a una diagnosi precoce delle malattie.
Leggi anche: Come vedono le intelligenze artificiali?
Pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.
Immagine copertina: Pixabay