Table of Contents Table of Contents
Previous Page  16 / 86 Next Page
Information
Show Menu
Previous Page 16 / 86 Next Page
Page Background

TECH INSIGHT

VISIONE ARTIFICIALE

16

- ELETTRONICA OGGI 465 - OTTOBRE 2017

La progettazione dei sistemi

basati sulla visione artificiale

Parte 6 –

La fusione efficiente dei sensori nei sistemi di visione embedded sofisticati

La presente serie di articoli ha considerato diversi aspetti dello

sviluppo di sistemi di visione embedded, inclusa la scelta dei sensori,

l’interfacciamento e lo sviluppo della catena del segnale che comprende

gli algoritmi di elaborazione dei segnali visivi

A cura di Xilinx

I

n un’applicazione di visione embedded sofisticata, come ad esempio un sistema avanzato di guida Assistita

(ADAS), alcune funzionalità potrebbero dipendere dalla combinazione dei risultati provenienti da due o più

sensori. Questa è la sensor fusion, e consente al sistema di acquisire informazioni che non possono essere for-

nite da un singolo sensore. Nel contesto dei sistemi di visione, la sensor fusion è generalmente effettuata in tem-

po reale, per consentire

decisioni in tempo reale.

L’alternativa è la fusio-

ne offline dei sensori,

in cui i dati del senso-

re sono estratti e fusi e

le decisioni vengono

prese in un momento

successivo. In più, in

un’applicazione come

un ADAS, la sensor fu-

sion potrebbe compor-

tare la combinazione di

numerosi canali di dati

fra sensori dello stesso

tipo, o potrebbe richie-

dere la fusione di dati

provenienti da diversi

tipi di sensori. Un’appli-

cazione di rilevazione

degli oggetti e di moni-

toraggio delle distanze

(Fig. 1) fornisce un buon

esempio per confronta-

re questi approcci, omo-

geneo ed eterogeneo,

alla fusione dei sensori.

Un sistema che si basa

su un singolo senso-

re di visione anteriore

potrebbe individuare e

identificare degli ogget-

ti, ma è necessario alme-

no un ulteriore sensore

di visione per calcolare

le distanze allo scopo di

individuare gli oggetti usando un algoritmo per il calcolo della parallasse. In alternativa, è possibile ottenere la

combinazione delle funzioni di rilevazione, riconoscimento degli oggetti e determinazione della distanza fon-

dendo i dati dei sensori di visione con dei RADAR o LIDAR. Altri esempi di applicazione implicano la fusione di

diversi tipi di immagini che includono i raggi X, la MRI e la CT per le applicazioni medicali, o le immagini visibili

e all’infrarosso nei sistemi di sicurezza.

Requisiti di elaborazione

Effettuare calcoli sui dati provenienti da più sensori di visione richiede una potenza di calcolo considerevole. Se

si usano i sensori di immagini a colori, sono richieste operazioni di elaborazione di pre-fusione, come l’interpola-

zione del filtro di colore, la conversione nello spazio di colore, il ricampionamento e la correzione dell’immagine.

L’algoritmo di fusione dei sensori deve essere eseguito, e un sistema ADAS richiede una successiva sottrazione

dello sfondo, una definizione delle soglie e la rilevazione dei contorni per localizzare gli oggetti usando l’approc-

cio più semplice, mentre alcuni sistemi potrebbero usare anche un classificatore HoG/SVM, caratterizzato da

un’intensità di elaborazione più elevata. Inoltre, l’esigenza di ottenere velocità di trasmissione dei fotogrammi

superiori o dimensioni maggiori delle immagini accresce ulteriormente la potenza di calcolo richiesta per pre-

elaborare le immagini e per estrarre le informazioni.

Fig. 1 – ADAS con funzioni di visione che richiede la sensor fusion