Tutto ciò grazie all’aumento della miniaturizzazione dei componenti costitutivi dei microprocessori stessi.
Ma fin a che punto si può “miniaturizzare il mondo” e sperare di continuare a descriverlo come si fa normalmente ora?
Cosa comporterà rimpicciolire i singoli componenti costitutivi (bjt o porte logiche) del cuore del computer, ossia del microprocessore, riducendoli ad uno o due soli atomi?
Tutto questo condurrà ad altri affascinanti tipi di computer, descrivibili in maniera nuova e strepitosamente efficienti in molti tipi di algoritmi e di applicazioni: i computer quantistici
Alla fine degli anni ‘40 e nei primi anni ‘60 la fisica quantistica fornì due enormi contributi alla tecnologia: il transistor (il cui nome è una contrazione da transfer resistor), fu inventato nel 1947 da un gruppo di ricercatori appartenente ai la-boratori della Bell, e il laser (termine coniato con le iniziali delle parole “Light Amplifica-tion by Stimulated Emission of Ra-diation”; per la dimostrazione del primo laser realizzato.
Il primo stimolò la crescita dell’elettronica, che a livello quantistico tratta dell’interazione tra gli elettroni e la materia di base.
Il laser ha aperto un nuovo settore, talvolta chiamato fotonica, che tratta dell’interazione (di nuovo a livello quantistico) tra fotoni e materia di base.
Tra le svariate peculiarità della luce emessa da un laser, compare la caratteristica di poter essere focalizzata in maniera molto netta, ottenendo facilmente intensità dei campi elettromagnetici dell’ordine di 1015 W/cm2.
Una tale disponibilità di intensità di luce (relativamente a basso costo) ha rivoluzionato non poco i comportamenti ottici di particolari tipi di materiali aprendo la strada ad una nuova, ricca serie di fenomeni dei quali ci occuperemo, in parte, in questo breve articolo introduttivo.
A ciò aggiungiamo che, ogni due anni la velocità di calcolatori raddoppia e le dimensioni dei loro componenti si dimezzano; è facile capire come il diametro dei transistor che costituiscono i complessi circuiti integrati di oggi non supera di un centesimo quello di un capello.
Le tecniche litografiche più progredite sono in grado di fornire componenti 100 volte più piccoli di quelli che si fabbricano oggi, ma a questa scala i componenti si comporterebbero come un aggregato di singoli atomi e il funzionamento dei circuiti stessi ne risulterebbe compromesso.
Gli stessi parametri fisici che attualmente si utilizzano per la descrizione della materia, nonché le equazioni di base adoperabili per progettare dispositivi e sistemi integrati, dovranno subire sostanziali modificazioni proprio in virtù del fatto che questa progressiva miniaturizzazione sta raggiungendo proprio le dimensioni caratteristiche del dominio ottico (cioè delle lunghezze d’onda dei segnali ottici; da qui il legame con i problemi e gli studi delle dinamiche della luce laser).
A questi ordini di distanze, il comportamento particellare (o quantistico) della radiazione elettromagnetica risulta non più trascurabile.
L’attuale teoria classica, sostanzialmente basata sulla manipolazione di grandezze medie, inizia a vacillare per la mancanza di elementi (atomi nel nostro caso) su cui mediare.
Non c’è bisogno di essere dei matematici per comprendere come due o tre atomi costituiscano un esiguo numero di elementi per tentare inferenze di tipo statistico.
Se a ciò si aggiunge che l’intima struttura della materia aderisce ai dettami imposti dalla meccanica quantistica, ne segue che per dominare queste nuove strutture miniaturizzate, così come per studiare, nel complesso, tutte le dinamiche associate alla luce laser, bisognerà avvicinarsi sempre di più a questa affascinante disciplina.
Charles Bennet ed altri del Watston Research Center della IBM si domandarono cosa, in effetti, comportasse questa miniaturizzazione, ovvero cosa comportasse la nuova descrizione quantistica di tali dispositivi e computer.
Agli inizi degli anni 80 David Deutsch dell’istituto di matematica dell’Università di Oxford e altri scienziati statunitensi e israeliani, tra cui il famosissimo premio nobel Richard Feynmann, cercarono di studiare le differenze di comportamento (attraverso la costruzione di modelli) tra gli attuali calcolatori classici e questi ipotetici computer quantistici.
Tra le caratteristiche più strane e interessanti di questi nuovi computer ottici c’è che la logica di base con cui operano non è più booleana, ossia, non c’è più il solo concetto di vero o falso, 1 o 0; questa dicotomia di base viene sostituita con la potenza del continuo offerta da quella che si chiama sovrapposizione quantistica di stati.
Il singolo qubit, (termine coniato nel 1995 da Ben Schumacher del Kenyon College negli stati uniti, o bit quantistico, non vale esattamente zero e non vale neanche esattamente uno, ma è una sovrapposizione di questi due stati.
Per avvicinarci all’idea rivoluzionaria offerta dall’applicazione del principio di sovrapposizione quantistica ai possibili stati logici di un bit, possiamo pensare in un primo momento alla logica sfumata, o Fuzzy logic, in cui appunto compare uno degli aspetti della sovrapposizione, ossia il fatto che non esistono solo due valori estremi (1 o 0) ma un’infinità di valori “logici” intermedi tra questi due stati.
È chiaro che la logica Fuzzy ci fornisce solo un aspetto dell’affascinante concetto di sovrapposizione quantistica che comunque ha in sé molte potenzialità in più, che provengono dal particolare dominio in cui esso opera: quello della Meccanica Quantistica appunto.
Questo sostanziale cambiamento della logica di base si ripercuote ad alto livello con un corrispondente cambiamento delle modalità di soluzione dei problemi stessi, cioè degli algoritmi con cui si andranno a risolvere i vari problemi.
Questi nuovi computer quantistici rivoluzioneranno, dunque, anche le classiche teorie dell’informazione e i classici metodi di computazione (programmazione).
Peter Shor, Lov Grover e lo stesso Deutsch sono stati i primi ad evidenziare le enormi potenzialità che gli algoritmi quantistici hanno rispetto ai corrispondenti classici, mostrando come sia possibile risolvere alcuni particolari problemi in maniera quantistica molto più efficacemente (riducendone di molto la complessità computazionale) rispetto alle corrispondenti soluzioni algoritmiche, basate sulla logica booleana tradizionale.
L’attuale limite alla computazione quantistica è imposto dalla decoerenza, fenomeno questo che tende a distruggere le sovrapposizioni quantistiche.
Molte sono le cause della decoerenza e lo studio di queste, nonché dei rimedi da poter adottare per cercare di superarle, costituiscono un ricco filone di ricerca sia per i fisici sia soprattutto per gli ingegneri che lavorano nel campo.
Alcuni studiosi sono pessimisti circa la possibilità di poter un giorno superare l’ostacolo della decoerenza, e potere realizzare quindi dei veri e propri computer quantistici.
Ricercatori più ottimisti credono invece che, nel giro di dieci anni, tutti gli attuali ostacoli potranno essere superati e la costruzione di un vero computer quantistico diventi una realtà e non rimanga solamente un’ipotetica predizione teorica.
Sia David Deutsch che Artur Ekert appartengono a questa seconda categoria di scienziati e credono che un giorno si potrà riuscire a costruire un vero computer quantistico (universale come lo chiamano loro) sempre più convinti tra l’altro, che …optimism makes things happen.