Background Image
Table of Contents Table of Contents
Previous Page  53 / 102 Next Page
Information
Show Menu
Previous Page 53 / 102 Next Page
Page Background

DIGITAL

BIG DATA

mi di ricerca sul web. D’altronde, dispositivi programmabili quali

quelli di Altera risultano fondamentali nello sviluppo degli SDDC

(Software Defined Data Centers) e nell’accelerare il trattamento

dati nei server, fattore che permette di semplificare le sfide im-

poste dalla “data science”, che richiede ingenti carichi di lavoro

di tipo distribuito, che di fatto superano le capacità dei server

tradizionali di tipo general-purpose.

Proprio a tal proposito, Microsoft ha dichiarato che la distribu-

zione del carico di lavoro fra più data-center equipaggiati con le

nuove logiche programmabili permette di ottenere prestazioni di

ricerca e confronto su grandi moli di dati largamente superiori a

quelle ottenibili con implementazioni basate esclusivamente su

software, con il vantaggio di una maggior stabilità dell’intero si-

stema. Tali considerazioni sono cruciali in ambiti di trattamento

dati a elevata complessità, come ad esempio l’analisi delle im-

magini, il trattamento di pacchetti di dati ad elevata velocità, la

crittografia e l’analisi dei dati finanziari in tempo reale.

Anche IBM, che ha recentemente annunciato la disponibilità

dei nuovi server Power S824L orientati proprio al trattamento

di grandi moli di dati eterogenei a elevata velocità, ha stretto ac-

cordi prima con

nVidia

per l’impiego delle GPU grafiche e ora

con Altera per “accelerare” proprio tramite FPGA i propri pro-

cessori Power8.

Anche Xilinx non sta a guardare. Già dallo scorso anno ha rive-

lato interessanti dettagli su di un’architettura multi-processing

ottimizzata per il trattamento a elevata efficienza di dati di tipo

eterogeneo. Proprio per superare le difficoltà legate all’elabora-

zione di grandi moli di dati ad alta velocità, si è reso necessa-

rio progettare architetture ottimizzate appositamente, creando

quelle che vengono anche chiamate “strutture di elaborazione

tridimensionali”, con un’organizzazione quale quella evidenziata

in figura 4.

Il nuovo approccio di Xilinx è stato implementato nell’architet-

tura multiprocessore UltraScale MPSoC (50 milioni di gate equi-

valenti, Fig. 5), che si concretizza nei chip della serie Zynq-7000

All-Programmable SoC (in tecnologia FinFet di TSMC da 16 nm),

idonea a soddisfare i requisiti imposti dalle applicazioni di elabo-

razione dei “big data” in termini di diffuse capacità analitiche in

grado di automatizzare il controllo di processi, la configurazione

e la gestione dei sistemi di networking e di calcolo intensivo in

tempo reale.

Anche Xilinx, del resto, ha accordi con IBM nell’ambito della

OpenPOWER foundation

, e nello scorso anno ha presentato al-

cune demo per l’accelerazione hardware nell’elaborazione ete-

rogenea a elevata velocità che sfruttano il nuovo protocollo CAPI

di IBM.

n