Table of Contents Table of Contents
Previous Page  18 / 86 Next Page
Information
Show Menu
Previous Page 18 / 86 Next Page
Page Background

TECH INSIGHT

VISIONE ARTIFICIALE

18

- ELETTRONICA OGGI 465 - OTTOBRE 2017

intensiva. Uno dei requisiti più importanti in tale sistema è la sincronizzazione delle due catene di elaborazione

delle immagini. Quando si eseguono in parallelo le catene all’interno della matrice logica programmabile, questo

requisito può essere soddisfatto applicando lo stesso clock a ciascuna catena, soggetto a opportuni vincoli.

L’architettura dell’approccio omogeneo (Fig. 2) mostra le due catene di elaborazione delle immagini, che sono

basate prevalentemente su blocchi IP disponibili. I dati di immagine sono catturati usando un opportuno modulo

IP sensore-interfaccia e sono convertiti dal formato parallelo in flussi AXI. Ciò consente di ottenere una catena

di elaborazione delle immagini facilmente estensibile, i cui risultati possono essere trasferiti nella memoria DDR

del PS usando l’interconnessione AXI ad alte prestazioni combinata con video DMA.

Se si considera un’implementazione che fa uso di diversi tipi di sensori, questa potrebbe combinare l’architettu-

ra di rivelazione degli oggetti descritta in precedenza con un RADAR per effettuare la rilevazione delle distanze.

Esistono due opzioni per implementare il RADAR: un approccio impulsato (Doppler) o ad onda continua. L’op-

zione migliore dipenderà dai requisiti dell’applicazione finale; tuttavia, entrambi seguiranno un approccio simile.

L’implementazione del RADAR (Fig. 3) può essere considerata come suddivisa in due parti: la generazione del

segnale che include un convertitore digitale-analogico ad alta velocità per produrre un’onda continua o un

segnale impulsato, e la ricezione del segnale usando un convertitore analogico-digitale ad alta velocità per

catturare il segnale ricevuto a onda continua o impulsato. Qualora occorra effettuare l’elaborazione dei segnali,

entrambi gli approcci ricorreranno all’analisi basata su FFT implementata con la matrice logica programmabile;

gli insiemi dei dati risultanti possono essere trasferiti alla memoria DDR del PS usando un DMA.

Per entrambe le implementazioni, l’algoritmo di fusione per entrambi gli insiemi di dati è effettuato con il PS

usando il software. Vale la pena osservare che i progettisti spesso osservano che gli algoritmi di fusione im-

pongono requisiti intensivi di banda di elaborazione. Un’opzione disponibile per ottenere prestazioni superiori

consiste nell’utilizzare la potenza dell’ambiente di progettazione SDSoC.

SDSoC consente di trasferire senza problemi le funzioni software fra il processore e la logica programmabile di

un SoC, usando Vivado HLS e un’infrastruttura per la connettività. Entrambi sono trasparenti allo sviluppatore

software. L’uso dell’HLS per sviluppare le catene di elaborazione sia nell’implementazione omogenea, sia in

quella eterogenea può essere ulteriormente esteso al fine di creare una piattaforma

SDSoC su misura per la realizzazione prescelta per gestire le risorse logiche non impe-

gnate, allo scopo di accelerare ulteriormente le prestazioni del sistema di visione em-

bedded nel complesso. Poiché i mercati dei sistemi di visione embedded continuano a

crescere, e i sensori di rilevazione delle immagini e altri tipi di sensore diventano più

prontamente disponibili e convenienti, i progettisti di sistemi necessitano di metodo-

logie di fusione sempre più veloci ed efficienti. Gli FPGA e i SoC interamente program-

mabili sono in grado di semplificare le catene di elaborazione multicanale, mentre

i tool di sintesi di sistema e ad alto livello contribuiscono ad assicurare prestazioni

superiori a livello di sistema e il completamento del progetto nei tempi prestabiliti.

Ulteriori

informa-

zioni sono reperibili

all’indirizzo:

http://

www. x i l i nx . com/

products/design-

tools/embedded-vi-

sion-zone.html

Fig. 3 – Fusione eterogenea dei sensori