EO_488

DIGITAL NEURAL NETWORKS 46 - ELETTRONICA OGGI 488 - SETTEMBRE 2020 Si ottiene meno valore aggiunto con un motore di in- ferenza in grado di ottenere prestazioni di picco da 10 TOP se le prestazioni reali durante l’esecuzione sulla vostra rete specifica sono di 1 TOP. ! " # # che il costo energetico dell’accesso alla SRAM interna (noto come BRAM o UltraRAM per coloro che hanno familiarità con i SoC di Xilinx ) in un moderno dispositi- $ % & ' # # grandezza in meno rispetto al costo energetico dell’ac- cesso alla DRAM esterna. ! * # l’unità TPUv1 (Fig. 1). Quest’ultima incorpora un’unità MAC 65.536 INT8 insieme a 28 MB di memoria su chip per archiviare le attivazioni intermedie. I pesi sono re- cuperati dalla DDR esterna. Le prestazioni teoriche di picco dell’unità TPUv1 sono pari a 92 TOPS. L e reti neurali possono essere classificate come un insieme di algoritmi modellati liberamente sul cervello umano che sono in grado di “ap- + # : < derivare molti vantaggi dallo sviluppo di modelli di reti # = l > l # # ? +: @# = - & l - siderare diversi requisiti fondamentali. Un aspetto critico da considerare quando si implemen- = ? J = acceleratori hardware in generale) riguarda il modo in cui si accede alla memoria. Nel contesto dell’infe- ? & # JKX[ = considerare in particolare il modo in cui archiviamo sia i pesi che i valori di attivazione intermedi. Negli # # ?? vari gradi di successo. Gli impatti delle relative scelte architettoniche sono significativi: ! X ? \ = X X X] - tano una latenza relativamente bassa. Se i pesi e le at- tivazioni associati alla successiva operazione sui grafi = ?? # = l ? : @# - # # ^^_ # # `# ? # - za e sull’efficienza. ! * # ? \ = & alla memoria esterna è di almeno un ordine di gran- dezza superiore rispetto agli accessi alla memoria in- terna. j # ? # ? \ = ? - ni sono limitate dalle risorse di calcolo o dalla memo- ria. Ciò può impattare sui protocolli GOP/TOP ottenibili # = ? # = l : Vediamo, in questo articolo, quali sono i diversi requisiti necessari da tene- re in considerazione per garantire l’efficacia di un modello Quenton Hall AI System Architect for Industrial, Vision, Healthcare and Sciences Xilinx Come sfruttare i modelli di reti neurali progettati per ottimizzare l’efficienza Fig. 1 – Architettura dell’unità TPUv1 [Riferimento: Jouppi et al. 2017, https://arxiv.org/ftp/arxiv/papers/1704/1704.04760.pdf ]

RkJQdWJsaXNoZXIy MTg0NzE=