EO_505

DIGITAL HW ACCELERATORS la funzione di convoluzione per mappare le immagini del livello di input (precedente) al livello successivo. I dati di ogni livello di input sono composti da più canali. Un insieme di finestre di filtro è definito come peso. I risultati vengono eseguiti attraverso il calcolo del prodotto interno tramite il peso del filtro e i dati di input. La funzione di output viene definita utilizzando il filtro o il peso per scansionare e accumulare diversi canali di input. Dopo il calcolo interprodotto, a ciascun risultato finale viene aggiunto un vettore di polarizzazione separato (la stessa dimensione del numero della caratteristica di output). Una rappresentazione del livello di convoluzione è mostrata in figura 2. Oltre al livello di convoluzione, il livello di pooling consiste nel comprimere informazioni importanti attraverso un gruppo di dati di pixel dell’immagine locale in ciascun canale di input. Esistono due tipi di operazioni di pooling: poolingmassimo e poolingmedio. Per l’operazione di raggruppamento massimo, l’output del livello di raggruppamento raccoglie il massimo dei dati dei pixel nella finestra del gruppo locale, mentre per l’operazione di raggruppamento medio, l’output dei livelli di raggruppamento calcola la media dei dati dei pixel nella finestra del gruppo locale. In questo articolo sono state descritte varie piattaforme hardware di calcolo per algoritmi di apprendimento automatico. Tra questi, la GPU è la più utilizzata grazie alla sua elevata velocità di calcolo e alla compatibilità con vari algoritmi. L’FPGA ha una migliore efficienza energetica rispetto alla GPU quando si calcola l’algoritmo di apprendimento automatico, ma a scapito della bassa velocità. Inoltre, abbiamo visto come le architetture basate su ASIC possono supportare alcuni tipi di algoritmi di apprendimento automatico come la rete neurale convoluzionale profonda per migliorarne le prestazioni hardware. Rispetto a GPU e FPGA, ASIC dimostra una migliore efficienza energetica e velocità di calcolo a scapito della riconfigurabilità per vari algoritmi ML. In definitiva, a seconda delle applicazioni specifiche, i progettisti dovrebbero selezionare fra ASIC, GPU e FPGA la piattaforma hardware di calcolo più adatta in base al tipo di prestazione richiesta dall’applicazione. Fig. B – Gli FPGA stanno emergendo come concorrenti credibili delle GPU per l’implementazione di algoritmi di deep learning basati sulle reti neurali convoluzionali CATTURA OGNI DETTAGLIO ● 350 MHz –1 GHz ● 10 GS/s, fino a 250 Mpt di memoria ● Display da 15,6”, ingombro ridotto ● 12 bits senza compromessi NUOVO teledynelecroy.com/hdo6000

RkJQdWJsaXNoZXIy Mzg4NjYz