Elaborazione a elevate prestazioni

Dalla rivista:
Elettronica Oggi

 
Pubblicato il 6 febbraio 2013

Nel bollettino ufficiale della Digital Agenda for Europe (DAE) della CEE datato il 15 febbraio di quest’anno si legge che l’High Performance Computing (HPC) è da considerarsi una risorsa critica per le industrie europee poiché consente di sviluppare tecnologie a elevatissimo valore aggiunto che possono rivelarsi preziose per migliorare la bilancia commerciale del Vecchio Continente verso l’Asia e l’America.

Oggi nel termine HPC si intendono sia i supercomputer progettati con a bordo un po’ di CPU integrate insieme allo scopo di eseguire un gran numero di operazioni al secondo sia i cluster costituiti da reti di PC realizzate appositamente per implementare tecniche di calcolo parallelo in condivisione delle risorse fra i processori disponibili in rete. Questi cluster sono, in pratica, dei supercomputer distribuiti che sfruttano i recenti progressi compiuti dalle tecnologie di cloud computing, le quali consentono oggi di sfruttare Internet per distribuire fra un’infinità di risorse dislocate nell’intero pianeta qualsiasi tipologia di problema da risolvere, senza più bisogno di disporre di quanta più intelligenza possibile a livello locale dato che ce n’è all’infinito in condivisione delle risorse.

Interessante a tal proposito è una recente ricerca del MIT che dimostra che i bus singoli all’interno dei moderni chip multicore conservano il massimo delle prestazioni solo fino a 4 core CPU, mentre da 8 core CPU in su perdono efficienza e le prestazioni migliorano solo se s’implementano almeno due bus di sistema. La stessa proporzione resta valida all’aumentare del numero delle CPU e si dimostra che le massime prestazioni si ottengono solo aumentando anche il numero dei bus in misura adeguata. Da ciò la ricercatrice Peh del MIT deduce che quando i core CPU diventano troppi sono e saranno sempre più competitive le architetture dove le risorse sono distribuite e questo concetto rimane valido se invece di considerare core multipli interconnessi a bus multipli si considerano i numerosi core CPU distribuiti in rete delle architetture cluster.

Nel comunicato DAE viene specificato che il cloud computing ossia la condivisione dei contenuti software in rete e il loro utilizzo su hardware di elaborazione a elevate prestazioni è un’opportunità “indispensabile per le imprese europee per rinnovarsi, competere e sopravvivere” e non solo per quelle medie e grandi che hanno più possibilità d’investire in ricerca e sviluppo, ma anche per le piccole imprese che possono fruire delle nuove tecnologie per delineare strategie di mercato mirate ad applicazioni specifiche. Secondo l’Unione Europea l’HPC permette di sviluppare soluzioni innovative per accelerare e rendere più affidabili e produttive attività di business che prima erano riservate a risicate élite di laboratori di ricerca consentendo a tutti di contribuire a migliorare la redditività delle applicazioni notoriamente a più elevato costo come, per esempio, il progetto dei nuovi autoveicoli, le previsioni meteorologiche o l’assistenza decisionale ai medici nelle operazioni chirurgiche.

Prospettive condivise
Nel recente studio IBM “The Power of Cloud: Driving business model innovation” si legge che “il cloud computing non comporta solamente un miglioramento di efficienza e un risparmio complessivo dei costi, ma permette anche di stimolare l’innovazione che costituisce un vantaggio competitivo sul mercato”. Ciò significa che le nuove tecnologie di cloud computing implementate su computer a elevate prestazioni hanno le carte in regola per stimolare la nascita di nuove tendenze nell’economia globale. Da parte sua, la Commissione Europea ha istituito il consorzio PRACE, Partnership for Advanced Computing in Europe, fra i laboratori di ricerca delle principali università comunitarie con la missione di sviluppare collaborazioni mirate con i laboratori delle industrie europee al fine di valutare l’utilità delle tecnologie di HPC nelle applicazioni e nelle due varianti oggi più ricorrenti ossia gli HPC Load Balancing e gli HPC High Availability laddove i primi sono progettati per fare in modo di dare più lavoro alla CPU che di volta in volta ne ha di meno, mentre i secondi sono impostati sulla priorità di garantire sempre la massima offerta di risorse fra quelle disponibili in tempo reale.

Nel comunicato DAE si osserva altresì che attualmente un supercomputer costa circa un centinaio di milioni di euro oltre a una decina di milioni di mantenimento annuale, ed è considerato HPC se le sue prestazioni sono nell’ordine del PetaFlops (milioni di miliardi di operazioni in virgola mobile al secondo) ossia quanto circa centomila PC da tavolo. I pochi attualmente già installati sono usati per predire l’evoluzione di sistemi a elevata complessità in medicina, in economia e nello sviluppo delle nuove tecnologie. L’HPC può essere un’alternativa e un’opportunità per ridurre i costi dei supercomputer grazie alla miglior redditività dei cluster. Il report pubblicato da IDC all’HPC User Forum svoltosi a Richmond in Virginia a metà aprile dice che i computer HPC sono cresciuti nel 2011 dell’8,4% e quindi ben oltre il 7,2% previsto nel report precedente e, inoltre, dovrebbero continuare a crescere con una media del 7,6% all’anno per i prossimi tre anni. Tuttavia, nel comunicato DAE si legge anche che oggi sono i laboratori americani e nipponici a sfornare il maggior numero di brevetti malgrado in Europa vi siano le menti più illustri sia nello sviluppo degli algoritmi software sia nel disegno dei circuiti integrati a semiconduttore. Si tratta, dunque, di un gap che potrebbe essere facilmente superato se i laboratori europei decidessero di cooperare un po’ di più e se ci fosse la volontà di spingere in questo nuovo settore di mercato.

Inoltre, un importante ritorno delle tecnologie HPC è già stato misurato in termini di sostenibilità giacché un qualsiasi sistema di calcolo in condivisione delle risorse in rete consente di risparmiare energia fino a un centinaio di volte rispetto all’equivalente parco di PC singoli che occorrerebbe altrimenti utilizzare per svolgere le stesse elaborazioni. In questo senso si rivolge anche l’Action Plan for European Leadership in HPC decretato in ambito europeo per spingere le imprese comunitarie a “essere protagoniste nelle grandi sfide sociali e scientifiche come la diagnosi precoce e la cura delle malattie come il morbo di Alzheimer, lo studio dell’evoluzione del clima o la prevenzione e la gestione delle catastrofi su vasta scala”.

Qualche novità sul mercato
Aethia di Colleretto Giacosa vicino a Ivrea è impegnata nel settore degli HPC da oltre un decennio e oggi propone computer cluster HPC in configurazione LB e HA oltre alla piattaforma software completa HPC Suite dotata di tutti gli strumenti necessari per configurare e utilizzare al meglio i sistemi cluster. Aethia fornisce anche il software Beolive specifico per la gestione delle piattaforme di PC multipli in rete e realizza hardware preconfigurati nella forma di reti di PC o sistemi di calcolo multiprocessore pronti all’uso e facilmente installabili in qualsias
i ambiente applicativo.

I sistemi cluster HPC Aethia permettono di realizzare reti di computer in condivisione delle risorse di semplice configurazione e utilizzo

I server possono altresì appoggiarsi a reti di storage distribuite e a workstation che Aethia prepara appositamente al supporto dei cluster sfruttando l’impostazione open-source di Linux. I cluster HPC sono rilasciati “chiavi in mano” con tutto ciò che serve sia hardware sia software al funzionamento e alla manutenzione della rete di calcolo distribuita. Ogni sistema Aethia è scalabile e può essere adattato alle applicazioni o espanso all’aumentare delle esigenze di rete, ma sempre con la massima semplicità d’uso da parte dell’utente.

Eurotech ha ricevuto questa primavera un ordine di 1,2 milioni di Euro da parte del Forschungszentrum Jülich, uno dei più grandi centri di ricerca europei, per la fornitura di un sistema HPC della famiglia Aurora che sarà utilizzato nel progetto dell’Unione Europea denominato DEEP, Dynamic Exascale Entry Platform, finalizzato alla ricerca e alla sperimentazione di un super HPC europeo in grado di raggiungere gli ExaFlops ossia un miliardo di miliardi di calcoli in virgola mobile al secondo e cioè almeno un migliaio di volte più potente rispetto al più veloce supercomputer attualmente esistente.

Eurotech ha particolarmente curato l’efficienza energetica dei suoi sistemi HPC Aurora che sono in grado di offrire 900 MegaFlops/Watt

Il nuovo HPC sarà realizzato come un cluster di core CPU organizzati e gestiti da un innovativo acceleratore condiviso chiamato Booster che ne aumenterà la potenza di calcolo consentendo una scalabilità senza precedenti. L’ultimo nato nella famiglia Aurora è l’HPC 10-10 basato sui processori Intel Xeon E5-2687W con frequenza di lavoro di 3,1 GHz ciascuno e offre prestazioni che globalmente superano i 100 TeraFlops con un’efficienza energetica quantificata in 900 MegaFlops/Watt.

Fujitsu Italia ha ultimato lo sviluppo dei server Primergy x86 predisposti per essere utilizzati in cluster nelle applicazioni SMP, Symmetric Processing, high-end negli ambienti HPC, High Performance Computing. Grazie alla certificazione vSMP Foundation i server Primergy sono utilizzabili per creare cluster a memoria condivisa senza bisogno di costose soluzioni software proprietarie.

I server Fujitsu Primergy x86 sono utilizzabili in cluster SMP HPC con fino a 1024 core CPU e memoria condivisa fino a 64 TeraByte

La tecnologia ScaleMP consente, infatti, di supportare le applicazioni multi-threaded a elevate prestazioni basate su Open MultiProcessing e di scalare in un unico cluster virtuale fino a ben 1024 processori con fino a 64 TeraByte di memoria condivisa. Fujitsu propone uno stack HPC completo che va dalle soluzioni basate su workstation Celsius fino alle soluzioni a elevate prestazioni Primergy certificate e pronte all’uso senza bisogno di particolari competenze e disponibili anche custom per applicazioni specifiche. L’ultimo nato è il Primergy CX400 S1 basato sui core Intel Xeon E5-2600 e definito “multi-node cloud extension server” o “4in2U” perché offre in un rack 2U le prestazioni tipicamente disponibili nei contenitori 4U.

Nvidia ha recentemente presentato il processore grafico GPU Tesla K10 specificatamente pensato per le applicazioni di High Performance Computing nel supporto dei sistemi per l’elaborazione dei dati di immagini complesse per applicazioni nei settori medicale, militare e aerospaziale.

I processori grafici GPU Tesla K10 e K20 sfruttano l’architettura HPC Kepler capace di eseguire ben 4,58 TeraFlops

Nel silicio della GPU Tesla K10 Nvidia ha integrato due core di calcolo GK104 Kepler capaci di eseguire ben 4,58 TeraFlops in singola precisione e indirizzare i dati in memoria al ritmo di 320 GByte al secondo. Ancor più potente sarà la GPU Tesla K20 che Nvidia sta ultimando con a bordo due core GK110, ma questo core HPC è atteso verso la fine di quest’anno. L’architettura Nvidia Kepler ha un’innovativa concezione dello streaming multiprocessore che consente d’impiegare maggiormente i core di elaborazione rispetto alla logica di controllo massimizzando l’efficienza di calcolo algebrico e, inoltre, i core sono strutturati per eseguire rapidamente i loop in parallelo grazie all’interconnessione Hyper-Q che riduce il tempo d’inattività dei singoli core.

Lucio Pellizzari



Contenuti correlati

  • Galdi sceglie Eurotech per l’IoT in applicazioni industriali

    Eurotech, primario fornitore di piattaforme per abilitare applicazioni Internet of Things (IoT), ha annunciatoun design win con Galdi, azienda di primaria importanza nella progettazione e produzione di macchine confezionatrici per il settore alimentare, che ha scelto il...

  • Eurotech: gateway IoT Multi-service e modulo cellulare per LTE Cat 4

    Eurotech ha annunciato due nuovi prodotti, ReliaGATE 10-12 e ReliaCELL LTE, che forniscono la connettività cellulare pre-certificata 4G/LTE. ReliaGATE 10-12 amplia la famiglia di gateway IoT Multi-service per applicazioni industriali come per esempio la raccolta dati, la...

  • Hardware e software open source in aiuto ai progetti IoT

    Perché oggi il paradigma di sviluppo open source, nella sua accezione più ampia, comprendente hardware e software, può essere la risposta alle esigenze delle aziende che vogliono ridurre tempi e costi del ciclo di design, per non...

  • Tablet: è la fine di un’era?

    Erano la sostituzione dei notebook tradizionali, ma da qualche tempo i tablet sembra non riscuotano più lo stesso successo di prima. Secondo gli ultimi dati pubblicati da IDC, e relativi al primo trimestre del 2017, si è...

  • Segnali di ripresa dal mercato dei pc, secondo IDC

    Sembravano destinati a un lento e inesorabile declino, invece una recente indagine di  IDC mostra una situazione nient’affatto negativa per quanto riguarda i pc (desktop, notebook e workstation). Stando agli analisti di IDC, il mercato dei PC...

  • Eurotech: nuova partnership con VMware

    Eurotech annuncia di aver unito le proprie competenze con VMware per poter offrire la tecnologia di VMware a bordo dei propri sistemi IoT permettendo così una migliore assegnazione delle risorse di calcolo per un ambiente più efficiente...

  • IBM, Indiegogo e Arrow collaborano per le startup in ambito IoT

    IBM ha annunciato la collaborazione con Indiegogo e Arrow Electronics per contribuire a trasformare le nuove idee IoT (Internet of Things) in prodotti concreti. Questa collaborazione combina la piattaforma Watson IoT e i servizi cloud di IBM...

  • Eurotech: presentato un modulo COM Express per processori Intel Xeon D

    Eurotech ha ampliato la gamma di prodotti embedded ad alte prestazioni con la CPU-161-18, un modulo fanless COM Express, compatibile con le schede carrier di Tipo 6, con supporto per processori Intel Xeon D 15xx. CPU-161-18 fa...

  • Oltre il silicio

    Dopo un incontrastato predominio di oltre mezzo secolo sulla scena dei circuiti integrati, il silicio sembra vicino al capolinea. La richiesta di processori con una potenza di elaborazione sempre più spinta, anche in vista della realizzazione di...

  • Farnell element14 lancia un learner kit IoT

    Farnell element14 ha iniziato le consegne del learner kit IoT sviluppato in collaborazione con IBM.  Il kit offre una soluzione di apprendimento completa per produttori, sviluppatori hardware e software e studenti interessati ad avviare sviluppi IoT; è...

Scopri le novità scelte per te x