TECNOLOGIA

Computer (e pirati) quantistici

Ovvero, come si sia ormai prossimi alla realizzazione dei computer quantistici, e come tali sistemi dovranno essere concepiti per resistere agli attacchi degli hacker di nuova generazione.

I sistemi di calcolo convenzionali elaborano le informazioni basandosi su due livelli logici (alto e basso, o ‘1’ e ‘0’) mentre un computer quantistico può sfruttare un principio noto come sovrapposizione. Crediti immagine: Torkild Retvedt, Flickr

TECNOLOGIA – Il computer quantistico sembra ormai prossimo a diventare una realtà (ne abbiamo parlato qui), ma di che cosa si tratta esattamente? E in che cosa differisce da un computer tradizionale? Lo IAS, ovvero lo Institute of Advanced Studies di Princeton che ha annoverato tra i suoi docenti nientemeno che Albert Einstein, ha sviscerato la questione in tutti i suoi aspetti più rilevanti.

Il primo a pensare a un computer quantistico è stato il grande fisico Richard Feynman, partendo da una domanda molto semplice: è possibile simulare, o riprodurre, la realtà fisica mediante un calcolatore? Naturalmente, non esiste una risposta unica a una domanda così complessa: la capacità di un computer di simulare un fenomeno dipende moltissimo dalla complessità del fenomeno stesso.

Consideriamo ad esempio il moto di una sferetta sotto l’azione della gravità: utilizzando il modello del punto materiale, considerando cioè la sfera come un punto dotato di massa, è possibile determinare e rappresentare il moto del corpo con calcoli piuttosto semplici (almeno, per chi abbia i rudimenti della cinematica e della dinamica), prevedendone di fatto l’evoluzione nel tempo.

Si tratta di calcoli semplici, che un computer odierno è in grado di masticare senza alcuna difficoltà in tempi molto rapidi: gli basterà poter gestire, supponendo un moto in un piano verticale, le equazioni relative a due sole variabili, ossia la quota e la posizione orizzontale del corpo.

Che cosa succede, però, quando il numero di particelle di un sistema fisico diventa molto grande? Supponendo ad esempio di avere un sistema costituito da 100 sferette come quella dell’esperimento sopra descritto avremo bisogno di 2*100=200 variabili solo per descrivere il moto in un piano. Ebbene, al crescere del numero di particelle, la memoria e la capacità di calcolo richieste per gestire così tante variabili e la loro evoluzione temporale vanno oltre le possibilità tecniche di un qualunque computer tradizionale.

Infatti i sistemi di calcolo convenzionali elaborano le informazioni basandosi su due livelli logici (alto e basso, o ‘1’ e ‘0’) che sono rappresentate fisicamente da due livelli distinti di tensione elettrica. Pertanto, una sequenza, poniamo, di  venti ‘0’ o ‘1’ avrà più di un miliardo di possibili configurazioni. Passando a trenta elementi, tale numero cresce a più di un milione, e così via.

Nessun computer attuale ha potenza di calcolo e capacità sufficienti a gestire numeri così elevati. Un computer quantistico, invece, può sfruttare un principio noto come sovrapposizione: in altri termini esso può trovarsi in uno stato che è la combinazione di tutti i suoi stati possibili, nello stesso istante. Nel momento in cui si provasse a leggere questo stato mediante uno strumento di misura, l’informazione collasserebbe in un unico, singolo stato osservabile.

Ciò consente di realizzare miliardi di “copie” dello stesso calcolo in contemporanea, proprio come se avessimo miliardi di computer che in parallelo eseguono lo stesso calcolo. Con la differenza fondamentale che, in questo caso, si utilizzerebbe un unico computer con un unico hardware.

Tale proprietà, nota anche come parallelismo quantistico, apre la strada a delle applicazioni impensabili da realizzare con i computer tradizionali. Ad esempio, i ricercatori che si occupano di stabilire il comportamento delle particelle in condizioni particolari, come temperature o velocità molto elevate, potrebbero riprodurre la dinamica del loro comportamento senza ricorrere a costosissimi apparati come gli acceleratori di particelle.

Un’altra enorme potenzialità è legata alla gestione di grandi moli di dati, che al giorno d’oggi sta divenendo sempre più critica. Supponiamo di voler identificare un individuo di una popolazione di un milione di persone a partire da alcune sue caratteristiche specifiche, come ad esempio una immagine del suo volto, il numero di passi necessari per svolgere il compito per un calcolatore quantistico si abbatterebbe potenzialmente da un milione a circa un migliaio.

Passando a un altro argomento attuale, una rete di comunicazione basata sui principi quantistici risulterebbe assai difficile da penetrare da parte dei pirati informatici: questo perché, come accennato precedentemente, le operazioni di copia delle informazioni ne contaminerebbero in modo irreversibile l’integrità.

Di recente, tuttavia, un team di ricerca dell’Università di Ottawa ha realizzato una macchina in grado di clonare una rete di computer quantistici, riuscendo a decodificare il contenuto dell’informazione: questo esperimento, se da una parte ha dimostrato che neanche questa nuova tecnologia è inviolabile, ha allo stesso tempo fornito importanti indizi su come identificare una informazione copiata in modo illecito.

Infatti, come evidenziato nell’esperimento condotto dai ricercatori canadesi, quando grandi moli di informazioni vengono codificate in un singolo fotone, le copie dell’informazione hanno la tendenza a deteriorarsi in modo identificabile. Questa tendenza consentirebbe pertanto di identificare attacchi di hackers in corso e attuare immediate azioni a protezione dei dati riservati.

Insomma, possiamo già dire che un computer quantistico degno di tal nome esiste davvero, o siamo in presenza solo di diversi esperimenti che, seppur promettenti, non hanno alcuna reale controparte realizzabile industrialmente? La risposta, per ora, è forse. Esistono già alcuni esemplari notevoli di quantum computer, come D-Wave 2000Q. Questo computer, sviluppato dall’azienda canadese D-Wave, secondo gli esperti della Nasa e di Google può davvero esibire il cosiddetto quantum speed-up, ossia la capacità di eseguire calcoli con velocità finora inimmaginabili. Staremo a vedere che cosa ci riserva il prossimo futuro su questo versante.

Leggi anche: Com’è fatta la materia oscura? Gli assioni i favoriti del supercomputer

Pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   

Condividi su
Gianpiero Negri
Laureato in Ingegneria Elettronica, un master CNR in meccatronica e robotica e uno in sicurezza funzionale di macchine industriali. Si occupa di ricerca, sviluppo e innovazione di funzioni meccatroniche di sicurezza presso una grande multinazionale del settore automotive. Membro di comitati scientifici (SPS Italia) e di commissioni tecniche ISO, è esperto scientifico del MIUR e della European Commission e revisore di riviste scientifiche internazionali (IEEE Computer society). Sta seguendo attualmente un corso dottorato in matematica e fisica applicata. Appassionato di scienza, tecnologia, in particolare meccatronica, robotica, intelligenza artificiale e matematica applicata, letteratura, cinema e divulgazione scientifica, scrive per Oggiscienza dal 2015.