Nel bollettino ufficiale della Digital Agenda for Europe (DAE) della CEE datato il 15 febbraio di quest’anno si legge che l’High Performance Computing (HPC) è da considerarsi una risorsa critica per le industrie europee poiché consente di sviluppare tecnologie a elevatissimo valore aggiunto che possono rivelarsi preziose per migliorare la bilancia commerciale del Vecchio Continente verso l’Asia e l’America.
Oggi nel termine HPC si intendono sia i supercomputer progettati con a bordo un po’ di CPU integrate insieme allo scopo di eseguire un gran numero di operazioni al secondo sia i cluster costituiti da reti di PC realizzate appositamente per implementare tecniche di calcolo parallelo in condivisione delle risorse fra i processori disponibili in rete. Questi cluster sono, in pratica, dei supercomputer distribuiti che sfruttano i recenti progressi compiuti dalle tecnologie di cloud computing, le quali consentono oggi di sfruttare Internet per distribuire fra un’infinità di risorse dislocate nell’intero pianeta qualsiasi tipologia di problema da risolvere, senza più bisogno di disporre di quanta più intelligenza possibile a livello locale dato che ce n’è all’infinito in condivisione delle risorse.
Interessante a tal proposito è una recente ricerca del MIT che dimostra che i bus singoli all’interno dei moderni chip multicore conservano il massimo delle prestazioni solo fino a 4 core CPU, mentre da 8 core CPU in su perdono efficienza e le prestazioni migliorano solo se s’implementano almeno due bus di sistema. La stessa proporzione resta valida all’aumentare del numero delle CPU e si dimostra che le massime prestazioni si ottengono solo aumentando anche il numero dei bus in misura adeguata. Da ciò la ricercatrice Peh del MIT deduce che quando i core CPU diventano troppi sono e saranno sempre più competitive le architetture dove le risorse sono distribuite e questo concetto rimane valido se invece di considerare core multipli interconnessi a bus multipli si considerano i numerosi core CPU distribuiti in rete delle architetture cluster.
Nel comunicato DAE viene specificato che il cloud computing ossia la condivisione dei contenuti software in rete e il loro utilizzo su hardware di elaborazione a elevate prestazioni è un’opportunità “indispensabile per le imprese europee per rinnovarsi, competere e sopravvivere” e non solo per quelle medie e grandi che hanno più possibilità d’investire in ricerca e sviluppo, ma anche per le piccole imprese che possono fruire delle nuove tecnologie per delineare strategie di mercato mirate ad applicazioni specifiche. Secondo l’Unione Europea l’HPC permette di sviluppare soluzioni innovative per accelerare e rendere più affidabili e produttive attività di business che prima erano riservate a risicate élite di laboratori di ricerca consentendo a tutti di contribuire a migliorare la redditività delle applicazioni notoriamente a più elevato costo come, per esempio, il progetto dei nuovi autoveicoli, le previsioni meteorologiche o l’assistenza decisionale ai medici nelle operazioni chirurgiche.
Prospettive condivise
Nel recente studio IBM “The Power of Cloud: Driving business model innovation” si legge che “il cloud computing non comporta solamente un miglioramento di efficienza e un risparmio complessivo dei costi, ma permette anche di stimolare l’innovazione che costituisce un vantaggio competitivo sul mercato”. Ciò significa che le nuove tecnologie di cloud computing implementate su computer a elevate prestazioni hanno le carte in regola per stimolare la nascita di nuove tendenze nell’economia globale. Da parte sua, la Commissione Europea ha istituito il consorzio PRACE, Partnership for Advanced Computing in Europe, fra i laboratori di ricerca delle principali università comunitarie con la missione di sviluppare collaborazioni mirate con i laboratori delle industrie europee al fine di valutare l’utilità delle tecnologie di HPC nelle applicazioni e nelle due varianti oggi più ricorrenti ossia gli HPC Load Balancing e gli HPC High Availability laddove i primi sono progettati per fare in modo di dare più lavoro alla CPU che di volta in volta ne ha di meno, mentre i secondi sono impostati sulla priorità di garantire sempre la massima offerta di risorse fra quelle disponibili in tempo reale.
Nel comunicato DAE si osserva altresì che attualmente un supercomputer costa circa un centinaio di milioni di euro oltre a una decina di milioni di mantenimento annuale, ed è considerato HPC se le sue prestazioni sono nell’ordine del PetaFlops (milioni di miliardi di operazioni in virgola mobile al secondo) ossia quanto circa centomila PC da tavolo. I pochi attualmente già installati sono usati per predire l’evoluzione di sistemi a elevata complessità in medicina, in economia e nello sviluppo delle nuove tecnologie. L’HPC può essere un’alternativa e un’opportunità per ridurre i costi dei supercomputer grazie alla miglior redditività dei cluster. Il report pubblicato da IDC all’HPC User Forum svoltosi a Richmond in Virginia a metà aprile dice che i computer HPC sono cresciuti nel 2011 dell’8,4% e quindi ben oltre il 7,2% previsto nel report precedente e, inoltre, dovrebbero continuare a crescere con una media del 7,6% all’anno per i prossimi tre anni. Tuttavia, nel comunicato DAE si legge anche che oggi sono i laboratori americani e nipponici a sfornare il maggior numero di brevetti malgrado in Europa vi siano le menti più illustri sia nello sviluppo degli algoritmi software sia nel disegno dei circuiti integrati a semiconduttore. Si tratta, dunque, di un gap che potrebbe essere facilmente superato se i laboratori europei decidessero di cooperare un po’ di più e se ci fosse la volontà di spingere in questo nuovo settore di mercato.
Inoltre, un importante ritorno delle tecnologie HPC è già stato misurato in termini di sostenibilità giacché un qualsiasi sistema di calcolo in condivisione delle risorse in rete consente di risparmiare energia fino a un centinaio di volte rispetto all’equivalente parco di PC singoli che occorrerebbe altrimenti utilizzare per svolgere le stesse elaborazioni. In questo senso si rivolge anche l’Action Plan for European Leadership in HPC decretato in ambito europeo per spingere le imprese comunitarie a “essere protagoniste nelle grandi sfide sociali e scientifiche come la diagnosi precoce e la cura delle malattie come il morbo di Alzheimer, lo studio dell’evoluzione del clima o la prevenzione e la gestione delle catastrofi su vasta scala”.
Qualche novità sul mercato
i ambiente applicativo.
I sistemi cluster HPC Aethia permettono di realizzare reti di computer in condivisione delle risorse di semplice configurazione e utilizzo
I server possono altresì appoggiarsi a reti di storage distribuite e a workstation che Aethia prepara appositamente al supporto dei cluster sfruttando l’impostazione open-source di Linux. I cluster HPC sono rilasciati “chiavi in mano” con tutto ciò che serve sia hardware sia software al funzionamento e alla manutenzione della rete di calcolo distribuita. Ogni sistema Aethia è scalabile e può essere adattato alle applicazioni o espanso all’aumentare delle esigenze di rete, ma sempre con la massima semplicità d’uso da parte dell’utente.
Eurotech ha particolarmente curato l’efficienza energetica dei suoi sistemi HPC Aurora che sono in grado di offrire 900 MegaFlops/Watt
Il nuovo HPC sarà realizzato come un cluster di core CPU organizzati e gestiti da un innovativo acceleratore condiviso chiamato Booster che ne aumenterà la potenza di calcolo consentendo una scalabilità senza precedenti. L’ultimo nato nella famiglia Aurora è l’HPC 10-10 basato sui processori Intel Xeon E5-2687W con frequenza di lavoro di 3,1 GHz ciascuno e offre prestazioni che globalmente superano i 100 TeraFlops con un’efficienza energetica quantificata in 900 MegaFlops/Watt.
I server Fujitsu Primergy x86 sono utilizzabili in cluster SMP HPC con fino a 1024 core CPU e memoria condivisa fino a 64 TeraByte
La tecnologia ScaleMP consente, infatti, di supportare le applicazioni multi-threaded a elevate prestazioni basate su Open MultiProcessing e di scalare in un unico cluster virtuale fino a ben 1024 processori con fino a 64 TeraByte di memoria condivisa. Fujitsu propone uno stack HPC completo che va dalle soluzioni basate su workstation Celsius fino alle soluzioni a elevate prestazioni Primergy certificate e pronte all’uso senza bisogno di particolari competenze e disponibili anche custom per applicazioni specifiche. L’ultimo nato è il Primergy CX400 S1 basato sui core Intel Xeon E5-2600 e definito “multi-node cloud extension server” o “4in2U” perché offre in un rack 2U le prestazioni tipicamente disponibili nei contenitori 4U.
I processori grafici GPU Tesla K10 e K20 sfruttano l’architettura HPC Kepler capace di eseguire ben 4,58 TeraFlops
Nel silicio della GPU Tesla K10 Nvidia ha integrato due core di calcolo GK104 Kepler capaci di eseguire ben 4,58 TeraFlops in singola precisione e indirizzare i dati in memoria al ritmo di 320 GByte al secondo. Ancor più potente sarà la GPU Tesla K20 che Nvidia sta ultimando con a bordo due core GK110, ma questo core HPC è atteso verso la fine di quest’anno. L’architettura Nvidia Kepler ha un’innovativa concezione dello streaming multiprocessore che consente d’impiegare maggiormente i core di elaborazione rispetto alla logica di controllo massimizzando l’efficienza di calcolo algebrico e, inoltre, i core sono strutturati per eseguire rapidamente i loop in parallelo grazie all’interconnessione Hyper-Q che riduce il tempo d’inattività dei singoli core.