EO_505

ELETTRONICA OGGI 505- OTTOBRE 2022 42 DIGITAL HW ACCELERATORS L’apprendimento automatico, o in inglese “Machine learning” (ML), è ampiamente utilizzato in molte moderne applicazioni di intelligenza artificiale. Diverse piattaforme hardware sono implementate per supportare tali applicazioni. Tra queste, l’unità di elaborazione grafica (GPU) è quella più utilizzata grazie alla sua elevata velocità di calcolo e alla compatibilità con vari algoritmi. Gli array di gate programmabili sul campo (FPGA) mostrano una migliore efficienza energetica rispetto alla GPU quando si calcolano algoritmi di apprendimento automatico, ma a scapito della bassa velocità. Esistono varie architetture di circuiti integrati specifici dell’applicazione (ASIC) per ottenere la migliore efficienza energetica al prezzo di una minore riconfigurabilità, il che li rende adatti a tipi speciali di algoritmi di apprendimento automatico come la rete neurale convoluzionale profonda. Il calcolo analogico mostra una metodologia promettente per calcolare algoritmi di apprendimento automatico di grandi dimensioni grazie al suo basso costo di progettazione e all’elevata velocità di calcolo; tuttavia, a causa del requisito del convertitore analogico-digitale (ADC) nell’informatica analogica, questo tipo di tecnica è applicabile solo a una bassa risoluzione di calcolo, il che la rende inadatta per la maggior parte delle applicazioni di intelligenza artificiale (AI). L’incremento notevole della potenza di calcolo ha In questo articolo viene fatta una panoramica sugli acceleratori hardware per l’apprendimento automatico nelle applicazioni di Intelligenza Artificiale consentito al sistema di calcolare diversi algoritmi ML complicati in un tempo relativamente breve, fornendo interazioni uomo-macchina in tempo reale come il rilevamento dei volti per la videosorveglianza, i sistemi avanzati di assistenza alla guida e il riconoscimento delle immagini nella diagnosi precoce del cancro. Tra tutte queste applicazioni, un’elevata precisione di rilevamento richiede un calcolo ML complicato, a scapito di un’elevata complessità computazionale. Ciò si traduce in un elevato requisito sulla piattaforma hardware. Attualmente, la maggior parte delle applicazioni è implementata su motori di calcolo generici, in particolare su unità di elaborazione grafica. Tuttavia, il lavoro recentemente riportato sia dall’industria che dalla ricercamostra una tendenza verso la progettazione di circuiti integrati specifici dell’applicazione per ML, ovvero degli ASIC, in particolare nel campo delle reti neurali profonde. L’acceleratore hardware nel datacenter Negli ultimi decenni, le GPU sono diventate di uso comune e standard nell’addestramento di algoritmi di apprendimento profondo o delle reti neurali convoluzionali per il rilevamento e riconoscimento di volti, oggetti, data mining e altre applicazioni di intelligenza artificiale. Le GPU offrono un’ampia gamma di scelte hardware, un throughput-potenza di Acceleratori hardware per machine learning Fulvio De Santis

RkJQdWJsaXNoZXIy Mzg4NjYz