EO_477

TECH INSIGHT ACCELERATED COMPUTING 26 - ELETTRONICA OGGI 477 - APRILE 2019 L’accelerazione del calcolo su FPGA trasforma le sfide dei Big Data in opportunità Il mondo fisico e quello online stanno creando un universo di Big Data che offre enormi vantaggi e capacità di analisi, ma che richiede un’evoluzione radicale delle risorse di calcolo per estrarre valore dai dati Daniel Eaton Senior Manager Strategic Market Development Xilinx L a miriade di dispositivi elettronici e di “ogget- ti” connessi a Internet crea un universo digita- le che comprende i dati relativi a tutto ciò che accade in una fabbrica, in una catena di ristoranti, in una città intelligente, o all’interno di un progetto di ricerca. Estrarre valore dai dati migliora le presta- zioni dei processi aziendali, accelera il progresso in campo medico, migliora la sicurezza e l’applicazione delle leggi e inoltre migliora la vita quotidiana e le esperienze sui social media di milioni di consumatori digitali in tutto il mondo – solo per citare alcune po- tenzialità. I database e gli strumenti di ricerca tradi- zionali non sono in grado di gestire l’enorme volume e la varietà dei tipi di dati e i modi complessi in cui è possibile combinare ed elaborarli per effettuare le analisi desiderate. Di conseguenza, stanno emergendo nuovi tipi di fonti di dati (come Hadoop – ma è impossibile nominarli tutti), di strumenti di log (come ad esempio di Splunk) e di tool di visualizzazione (come Tableau), che sono più adatti per i carichi di lavoro tipici dell’analisi dei dati. L’adattamento ai carichi di lavoro dell’analisi dei dati Gli strumenti di analisi dei Big Data accedono ai dati e li utilizzano in modo diverso rispetto ai processi transazio- nali delle tradizionali applicazioni d’interrogazione dei database. Considerando che le applicazioni transazionali lavorano su piccole quantità di dati in modo sequenziale e indicizzato, applicazioni di analitica predittiva come SAP acquisiscono i dati in volumi e possono applicare una vasta gamma di tecniche di analisi. Inoltre, il numero in rapida crescita di dispositivi nelle mani degli utenti e di oggetti connessi all’IoT generano dati a un tasso che ac- celera in modo esponenziale. L’esplosione della quantità di dati, combinata alla complessità dei carichi di lavoro, sta superando le prestazioni delle piattaforme di calcolo dei data center esistenti. I clienti esigono le elaborazioni generate dalle applicazioni di analisi in tempi rapidi, a volte anche in tempo reale, per scopi aziendali o finanzia- ri, e le architetture tradizionali non sono in grado di stare al passo. Gli approcci convenzionali per migliorare le prestazioni sono insufficienti, poiché i progressi nelle CPU legati alla legge di Moore e l’aumento della frequenza operativa (legge di Dennard sullo scaling) hanno entrambi subito un rallentamento negli ultimi cinque anni. D’al- tro canto, la semplice aggiunta di ulteriori lame o armadi di comando è sempre più difficile dal punto di vista dei costi, dello spazio e dei consumi.

RkJQdWJsaXNoZXIy MTg0NzE=