EON_626

EON EWS n . 626 - GENNAIO 2019 3 T ERZA P AGINA operativa di 1,8 Ghz, 32 GB di memoria HB2 e una velocità di accesso alla memoria interna di 1TB/s, questo “acceleratore” si rivolge a un pubblico di ricer- catori e scienziati, in particolare nei settori “caldi” della biologia molecolare e della climatologia. La gara per vantarsi dei primi chip a 7nm ha ovviamente in- teressato anche il comparto Mobile del settore consumer: lo scorso agosto è stata Huawei ad annunciare il “primo” SoC a 7 nm, denominato Kirin 980, ma ad arrivare prima sul mercato, a settembre, è stata Apple con il suo chip A12 Bionic. E a dicem- bre anche Qualcomm si è unita al club dei 7 nm annunciando il proprio processore SnapDra- gon 855, pensato per i futuri smartphone in tecnologia 5G. Core a 64 bit e 7 nm sembre- rebbero essere lo stato dell’arte nell’implementazione delle fun- zioni di intelligenza artificiale a bordo dei dispositivi mobili di nuova generazione, e se dal lato client i SoC sono una ne- cessità legata alle esigenze di contenimento di dimensioni e consumi, dal lato Cloud i gran- di fornitori di servizi che fanno leva su AI e Machine Learning si possono appoggiare alla su- T ra le molteplici novità del va- riopinto e frammentato panora- ma tecnologico rappresentato nell’ultima edizione del Consu- mer Electronics Show di Las Vegas emergono le più recenti incarnazioni del processo Fin- Fet da 7 nanometri messo a punto dalla fonderia taiwane- se TSMC . AMD , storica rivale di Intel fin dai tempi in cui le CPU non avevano ancora un nome, ha presentato proprio al CES i nuovi processori Ryzen per sistemi desktop, la nuova CPU Epyc dal nome in codice Rome, destinata ai server per data center e, in linea con l’at- tributo Consumer del CES, la prima scheda grafica Radeon VII con GPU da 7 nm rivolta al mercato dei gamer. Il debut- to dei 7 nm nel mondo delle GPU è tutt’altro che una novi- tà: AMD stessa aveva annun- ciato lo scorso giugno la prima GPU da 7 nm, Radeon Instinct MI60, destinata alle applicazioni di calcolo intensive che com- prendono Intelligenza Artificiale, Deep Learning, Cloud Compu- ting e HPC. Con oltre 13 mi- liardi di transistor, 4.096 nuclei di elaborazione, una frequenza periore potenza di calcolo (e relativi consumi) degli accelera- tori basati su GPU, con grande soddisfazione di AMD e nVi- dia . A partire dal 2009, quando le GPU hanno iniziato ad esse- re impiegate come acceleratori per Deep Learning, le piattafor- me per AI hanno incrementato le prestazioni con un fattore 2,5 ogni anno contro l’1,1 mostra- to dall’hardware “tradizionale”. Tuttavia, secondo gli esperti di IBM ci stiamo già avvicinando alla fine dell’era delle GPU ed è giunto il momento di pensare a soluzioni hardware e software dedicate. Lo scorso dicembre, IBM ha presentato all’ IEDM (International Electron Devices Meeting) e a NeurIPS (Con- ference on Neural Information Processing Systems) un chip analogico in grado di effettuare le moltiplicazioni richieste per il training delle reti neurali di- rettamente “in memoria” con una precisione di 8 bit in vir- gola mobile. In questi chip una memoria a transizione di fase (PCM) viene utilizzata per im- magazzinare i “pesi” delle reti neurali mentre le operazioni so- no svolte direttamente da com- ponenti analogici, eliminando il dispendioso passaggio dei dati da e verso il processore nume- rico. Il risultato è una maggior velocità di calcolo e consumi ridotti di 33 volte rispetto alle architetture digitali di precisione equivalente. E se a prima vista gli 8 bit di precisione del chip di IBM (un traguardo per una soluzione analogica) sembre- rebbero un regresso rispetto ai 32 e 64 bit oggi comuni nelle CPU e MCU tradizionali, è un dato di fatto che le più recen- ti piattaforme per il training di Deep Neural Network hanno abbandonato la precisione a 32 bit a favore di quella a 16 bit per i risparmi che ne con- seguono in termini di consumo energetico e di dimensioni della memoria richiesta. Nell’articolo Training Deep Neural Networks with 8-bit Floating Point Num- bers reso pubblico a NeurIPS i ricercatori di IBM, oltre che con- fermare che il passaggio a 8 bit incrementa ulteriormente questi risparmi, hanno dimostrato è possibile mantenere un grado di accuratezza soddisfacente nel training delle DNN per com- piti di riconoscimento vocale, di immagini e di testi che a simili basse risoluzioni di calcolo. Il tutto a velocità tra due e quattro volte quelle conseguibili dai si- stemi a 16 bit. Il training a 8 bit sarà la nuova frontiera dell’AI per applicazioni IoT e di Edge Computing, parola di Big Blue. Deep Learning a AI possono avvantaggiarsi della potenza delle GPU a 7 nm, ma secondo IBM nel futuro dell’AI ci sono chip analogici, elaborazione “in-memory” e 8 bit di precisione M ASSIMO G IUSSANI Otto bit: a volte ritornano (Fonte: nVidia)

RkJQdWJsaXNoZXIy MTg0NzE=