Elaborazione a elevate prestazioni

Dalla rivista:
Elettronica Oggi

 
Pubblicato il 6 febbraio 2013

Nel bollettino ufficiale della Digital Agenda for Europe (DAE) della CEE datato il 15 febbraio di quest’anno si legge che l’High Performance Computing (HPC) è da considerarsi una risorsa critica per le industrie europee poiché consente di sviluppare tecnologie a elevatissimo valore aggiunto che possono rivelarsi preziose per migliorare la bilancia commerciale del Vecchio Continente verso l’Asia e l’America.

Oggi nel termine HPC si intendono sia i supercomputer progettati con a bordo un po’ di CPU integrate insieme allo scopo di eseguire un gran numero di operazioni al secondo sia i cluster costituiti da reti di PC realizzate appositamente per implementare tecniche di calcolo parallelo in condivisione delle risorse fra i processori disponibili in rete. Questi cluster sono, in pratica, dei supercomputer distribuiti che sfruttano i recenti progressi compiuti dalle tecnologie di cloud computing, le quali consentono oggi di sfruttare Internet per distribuire fra un’infinità di risorse dislocate nell’intero pianeta qualsiasi tipologia di problema da risolvere, senza più bisogno di disporre di quanta più intelligenza possibile a livello locale dato che ce n’è all’infinito in condivisione delle risorse.

Interessante a tal proposito è una recente ricerca del MIT che dimostra che i bus singoli all’interno dei moderni chip multicore conservano il massimo delle prestazioni solo fino a 4 core CPU, mentre da 8 core CPU in su perdono efficienza e le prestazioni migliorano solo se s’implementano almeno due bus di sistema. La stessa proporzione resta valida all’aumentare del numero delle CPU e si dimostra che le massime prestazioni si ottengono solo aumentando anche il numero dei bus in misura adeguata. Da ciò la ricercatrice Peh del MIT deduce che quando i core CPU diventano troppi sono e saranno sempre più competitive le architetture dove le risorse sono distribuite e questo concetto rimane valido se invece di considerare core multipli interconnessi a bus multipli si considerano i numerosi core CPU distribuiti in rete delle architetture cluster.

Nel comunicato DAE viene specificato che il cloud computing ossia la condivisione dei contenuti software in rete e il loro utilizzo su hardware di elaborazione a elevate prestazioni è un’opportunità “indispensabile per le imprese europee per rinnovarsi, competere e sopravvivere” e non solo per quelle medie e grandi che hanno più possibilità d’investire in ricerca e sviluppo, ma anche per le piccole imprese che possono fruire delle nuove tecnologie per delineare strategie di mercato mirate ad applicazioni specifiche. Secondo l’Unione Europea l’HPC permette di sviluppare soluzioni innovative per accelerare e rendere più affidabili e produttive attività di business che prima erano riservate a risicate élite di laboratori di ricerca consentendo a tutti di contribuire a migliorare la redditività delle applicazioni notoriamente a più elevato costo come, per esempio, il progetto dei nuovi autoveicoli, le previsioni meteorologiche o l’assistenza decisionale ai medici nelle operazioni chirurgiche.

Prospettive condivise
Nel recente studio IBM “The Power of Cloud: Driving business model innovation” si legge che “il cloud computing non comporta solamente un miglioramento di efficienza e un risparmio complessivo dei costi, ma permette anche di stimolare l’innovazione che costituisce un vantaggio competitivo sul mercato”. Ciò significa che le nuove tecnologie di cloud computing implementate su computer a elevate prestazioni hanno le carte in regola per stimolare la nascita di nuove tendenze nell’economia globale. Da parte sua, la Commissione Europea ha istituito il consorzio PRACE, Partnership for Advanced Computing in Europe, fra i laboratori di ricerca delle principali università comunitarie con la missione di sviluppare collaborazioni mirate con i laboratori delle industrie europee al fine di valutare l’utilità delle tecnologie di HPC nelle applicazioni e nelle due varianti oggi più ricorrenti ossia gli HPC Load Balancing e gli HPC High Availability laddove i primi sono progettati per fare in modo di dare più lavoro alla CPU che di volta in volta ne ha di meno, mentre i secondi sono impostati sulla priorità di garantire sempre la massima offerta di risorse fra quelle disponibili in tempo reale.

Nel comunicato DAE si osserva altresì che attualmente un supercomputer costa circa un centinaio di milioni di euro oltre a una decina di milioni di mantenimento annuale, ed è considerato HPC se le sue prestazioni sono nell’ordine del PetaFlops (milioni di miliardi di operazioni in virgola mobile al secondo) ossia quanto circa centomila PC da tavolo. I pochi attualmente già installati sono usati per predire l’evoluzione di sistemi a elevata complessità in medicina, in economia e nello sviluppo delle nuove tecnologie. L’HPC può essere un’alternativa e un’opportunità per ridurre i costi dei supercomputer grazie alla miglior redditività dei cluster. Il report pubblicato da IDC all’HPC User Forum svoltosi a Richmond in Virginia a metà aprile dice che i computer HPC sono cresciuti nel 2011 dell’8,4% e quindi ben oltre il 7,2% previsto nel report precedente e, inoltre, dovrebbero continuare a crescere con una media del 7,6% all’anno per i prossimi tre anni. Tuttavia, nel comunicato DAE si legge anche che oggi sono i laboratori americani e nipponici a sfornare il maggior numero di brevetti malgrado in Europa vi siano le menti più illustri sia nello sviluppo degli algoritmi software sia nel disegno dei circuiti integrati a semiconduttore. Si tratta, dunque, di un gap che potrebbe essere facilmente superato se i laboratori europei decidessero di cooperare un po’ di più e se ci fosse la volontà di spingere in questo nuovo settore di mercato.

Inoltre, un importante ritorno delle tecnologie HPC è già stato misurato in termini di sostenibilità giacché un qualsiasi sistema di calcolo in condivisione delle risorse in rete consente di risparmiare energia fino a un centinaio di volte rispetto all’equivalente parco di PC singoli che occorrerebbe altrimenti utilizzare per svolgere le stesse elaborazioni. In questo senso si rivolge anche l’Action Plan for European Leadership in HPC decretato in ambito europeo per spingere le imprese comunitarie a “essere protagoniste nelle grandi sfide sociali e scientifiche come la diagnosi precoce e la cura delle malattie come il morbo di Alzheimer, lo studio dell’evoluzione del clima o la prevenzione e la gestione delle catastrofi su vasta scala”.

Qualche novità sul mercato
Aethia di Colleretto Giacosa vicino a Ivrea è impegnata nel settore degli HPC da oltre un decennio e oggi propone computer cluster HPC in configurazione LB e HA oltre alla piattaforma software completa HPC Suite dotata di tutti gli strumenti necessari per configurare e utilizzare al meglio i sistemi cluster. Aethia fornisce anche il software Beolive specifico per la gestione delle piattaforme di PC multipli in rete e realizza hardware preconfigurati nella forma di reti di PC o sistemi di calcolo multiprocessore pronti all’uso e facilmente installabili in qualsias
i ambiente applicativo.

I sistemi cluster HPC Aethia permettono di realizzare reti di computer in condivisione delle risorse di semplice configurazione e utilizzo

I server possono altresì appoggiarsi a reti di storage distribuite e a workstation che Aethia prepara appositamente al supporto dei cluster sfruttando l’impostazione open-source di Linux. I cluster HPC sono rilasciati “chiavi in mano” con tutto ciò che serve sia hardware sia software al funzionamento e alla manutenzione della rete di calcolo distribuita. Ogni sistema Aethia è scalabile e può essere adattato alle applicazioni o espanso all’aumentare delle esigenze di rete, ma sempre con la massima semplicità d’uso da parte dell’utente.

Eurotech ha ricevuto questa primavera un ordine di 1,2 milioni di Euro da parte del Forschungszentrum Jülich, uno dei più grandi centri di ricerca europei, per la fornitura di un sistema HPC della famiglia Aurora che sarà utilizzato nel progetto dell’Unione Europea denominato DEEP, Dynamic Exascale Entry Platform, finalizzato alla ricerca e alla sperimentazione di un super HPC europeo in grado di raggiungere gli ExaFlops ossia un miliardo di miliardi di calcoli in virgola mobile al secondo e cioè almeno un migliaio di volte più potente rispetto al più veloce supercomputer attualmente esistente.

Eurotech ha particolarmente curato l’efficienza energetica dei suoi sistemi HPC Aurora che sono in grado di offrire 900 MegaFlops/Watt

Il nuovo HPC sarà realizzato come un cluster di core CPU organizzati e gestiti da un innovativo acceleratore condiviso chiamato Booster che ne aumenterà la potenza di calcolo consentendo una scalabilità senza precedenti. L’ultimo nato nella famiglia Aurora è l’HPC 10-10 basato sui processori Intel Xeon E5-2687W con frequenza di lavoro di 3,1 GHz ciascuno e offre prestazioni che globalmente superano i 100 TeraFlops con un’efficienza energetica quantificata in 900 MegaFlops/Watt.

Fujitsu Italia ha ultimato lo sviluppo dei server Primergy x86 predisposti per essere utilizzati in cluster nelle applicazioni SMP, Symmetric Processing, high-end negli ambienti HPC, High Performance Computing. Grazie alla certificazione vSMP Foundation i server Primergy sono utilizzabili per creare cluster a memoria condivisa senza bisogno di costose soluzioni software proprietarie.

I server Fujitsu Primergy x86 sono utilizzabili in cluster SMP HPC con fino a 1024 core CPU e memoria condivisa fino a 64 TeraByte

La tecnologia ScaleMP consente, infatti, di supportare le applicazioni multi-threaded a elevate prestazioni basate su Open MultiProcessing e di scalare in un unico cluster virtuale fino a ben 1024 processori con fino a 64 TeraByte di memoria condivisa. Fujitsu propone uno stack HPC completo che va dalle soluzioni basate su workstation Celsius fino alle soluzioni a elevate prestazioni Primergy certificate e pronte all’uso senza bisogno di particolari competenze e disponibili anche custom per applicazioni specifiche. L’ultimo nato è il Primergy CX400 S1 basato sui core Intel Xeon E5-2600 e definito “multi-node cloud extension server” o “4in2U” perché offre in un rack 2U le prestazioni tipicamente disponibili nei contenitori 4U.

Nvidia ha recentemente presentato il processore grafico GPU Tesla K10 specificatamente pensato per le applicazioni di High Performance Computing nel supporto dei sistemi per l’elaborazione dei dati di immagini complesse per applicazioni nei settori medicale, militare e aerospaziale.

I processori grafici GPU Tesla K10 e K20 sfruttano l’architettura HPC Kepler capace di eseguire ben 4,58 TeraFlops

Nel silicio della GPU Tesla K10 Nvidia ha integrato due core di calcolo GK104 Kepler capaci di eseguire ben 4,58 TeraFlops in singola precisione e indirizzare i dati in memoria al ritmo di 320 GByte al secondo. Ancor più potente sarà la GPU Tesla K20 che Nvidia sta ultimando con a bordo due core GK110, ma questo core HPC è atteso verso la fine di quest’anno. L’architettura Nvidia Kepler ha un’innovativa concezione dello streaming multiprocessore che consente d’impiegare maggiormente i core di elaborazione rispetto alla logica di controllo massimizzando l’efficienza di calcolo algebrico e, inoltre, i core sono strutturati per eseguire rapidamente i loop in parallelo grazie all’interconnessione Hyper-Q che riduce il tempo d’inattività dei singoli core.

Lucio Pellizzari



Contenuti correlati

  • 0217-ibm-announcement-main
    IBM, Indiegogo e Arrow collaborano per le startup in ambito IoT

    IBM ha annunciato la collaborazione con Indiegogo e Arrow Electronics per contribuire a trasformare le nuove idee IoT (Internet of Things) in prodotti concreti. Questa collaborazione combina la piattaforma Watson IoT e i servizi cloud di IBM...

  • eurotech-cpu-161-18
    Eurotech: presentato un modulo COM Express per processori Intel Xeon D

    Eurotech ha ampliato la gamma di prodotti embedded ad alte prestazioni con la CPU-161-18, un modulo fanless COM Express, compatibile con le schede carrier di Tipo 6, con supporto per processori Intel Xeon D 15xx. CPU-161-18 fa...

  • figura_articolo
    Oltre il silicio

    Dopo un incontrastato predominio di oltre mezzo secolo sulla scena dei circuiti integrati, il silicio sembra vicino al capolinea. La richiesta di processori con una potenza di elaborazione sempre più spinta, anche in vista della realizzazione di...

  • farnel-element-ibm
    Farnell element14 lancia un learner kit IoT

    Farnell element14 ha iniziato le consegne del learner kit IoT sviluppato in collaborazione con IBM.  Il kit offre una soluzione di apprendimento completa per produttori, sviluppatori hardware e software e studenti interessati ad avviare sviluppi IoT; è...

  • cadence
    La piattaforma di emulazione enterprise di Cadence adottata da Fujitsu

    Cadence Design Systems ha annunciato che Fujitsu ha adottato la piattaforma di emulazione enterprise Cadence  Palladium  Z1 per lo sviluppo del computer Post-K, basato su ARMv8. Il computer post-K rappresenta la nuova generazione di supercomputer di punta...

  • eclipse-kapua-logo
    Collaborazione Eurotech – Red Hat per il rilascio della prima versione del sorgente di Eclipse Kapua

    Eurotech ha annunciato il rilascio del primo codice sorgente aperto per Eclipse Kapua, in collaborazione con Red Hat, Questo progetto open-source mette a disposizione degli sviluppatori IoT e degli utenti finali una piattaforma aperta per implementazioni IoT...

  • Le memorie di nuova generazione sfidano i processori

    La competizione fra le memorie è più viva che mai e sembra che le PCM realizzate a Zurigo da IBM possano davvero sconfiggere le MRAM nell’ambito podio di memorie universali intermedie fra le Dram e le Flash...

  • Stampa
    Da Eurotech la versione 4.0 di ESF

    Eurotech ha annunciato il rilascio ufficiale della versione 4.0 di Everyware Software Framework (ESF), l’edizione commerciale di Eclipse Kura, il middleware Java/OSGi open-source per gateway IoT multiservizi e dispositivi intelligenti. ESF offre un ambiente di esecuzione protetto...

  • eurotech_iot_development_kit
    Eurotech: arrivano i nuovi IoT Development Kit

    Eurotech presenta la nuova linea di Development Kit IoT basata sulla famiglia di gateway IoT ReliaGATE, progettata per applicazioni industriali e condizioni moderatamente gravose. I Development Kit IoT di Eurotech mettono a disposizione degli ingegneri un ambiente...

  • eurotech
    Eurotech diventa partner di Cisco

    Eurotech ha firmato un accordo con Cisco che le consentirà di diventare Indirect Solutions Technology Integrator (STI).  In base a questo accordo, Eurotech potrà fornire in tutto il mondo gateway studiati per applicazioni specifiche nei settori industriale...

Scopri le novità scelte per te x