Table of Contents Table of Contents
Previous Page  22 / 86 Next Page
Information
Show Menu
Previous Page 22 / 86 Next Page
Page Background

TECH INSIGHT

SMARTER VISION

22

- ELETTRONICA OGGI

459

-

GENNAIO

/

FEBBRAIO

2017

La corrente di buio è causata dal rumore termico

all’interno del sensore di immagini ed è presente an-

che in assenza di illuminazione. L’impatto del segna-

le di buio sulla qualità dell’immagine finale è meno

significativo a velocità dei fotogrammi elevate. Essa

dipende anche dalla temperatura, e così potrebbe es-

sere ridotta con il raffreddamento del sensore usando

un dispositivo come ad esempio un elemento Peltier.

La comprensione del modello di rumore aiuta a de-

terminare il rapporto segnale/rumore (SNR) che può

essere ottenuto. In seguito è possibile determinare

l’intervallo dinamico richiesto. Quest’ultimo quanti-

fica la capacità del sensore di catturare le immagini

che contengono sia aree fortemente illuminate, sia

aree buie. È generalmente espresso in dB o come rap-

porto fra la capacità del pixel (il numero di elettroni

che il pixel è in grado di gestire prima di saturare) e

il rumore di lettura del pixel. L’intervallo dinamico è

spesso determinato effettuando un test della curva di

trasferimento dei fotoni, che traccia l’andamento del

rumore rispetto alla capacità dei pixel. Se il dispositi-

vo è dotato di un’uscita digitale, l’intervallo dinamico

può anche essere influenzato dal numero di bit.

Ulteriori criteri di progetto

Inoltre, è importante considerare lo standard di I/O

adottato per i dati, i comandi e le connessioni di con-

trollo, che può influenzare la velocità effettiva dei

fotogrammi. Ad esempio, LVCMOS non è adatto per

velocità elevate dei fotogrammi, ma è accettabile per

una semplice fotocamera di monitoraggio. Le con-

nessioni LVDS ad alta velocità serializzate e dedicate

sono tipicamente usate laddove sono richiesti valori

elevati di velocità dei fotogrammi, di risoluzione e di

bit per pixel.

In aggiunta, i sensori potrebbero essere a colori o

di tipo monocromatico. La scelta sarà determinata

dai requisiti dell’applicazione. Un sensore di colore

richiede l’uso di un filtro a schema di Bayer in cima

a ciascun pixel che alterna rosso e blu in una linea

e blu e verde nella successiva. La tendenza verso il

verde riflette il fatto che l’occhio umano è più sensibi-

le alle lunghezze d’onda nel verde. Il colore reale del

pixel è determinato attraverso la post-elaborazione,

usando i risultati ottenuti dai pixel circostanti. Que-

sto può ridurre la risoluzione dell’immagine anche di

circa il 20%.

In un sensore monocromatico ciascun pixel riceve

tutti i fotoni, dato che non è presente uno schema di

Bayer in cima alla matrice di pixel dell’immagine. Ciò

consente di ottenere una maggiore sensibilità dell’im-

magine, e consente una semplice lettura della stessa,

non essendo necessaria la demosaicatura per la rico-

struzione del colore.

Se la procedura di selezione suggerisce l’uso di un

sensore di immagini CMOS, questo è in realtà un di-

spositivo SoC complesso dedicato che fornisce ai

progettisti ulteriori possibilità di scelta e di considera-

zioni di progetto. Il tempo di integrazione, ad esempio,

deve generalmente essere configurato scrivendo in

un registro attraverso l’interfaccia comandi. Inoltre,

sono spesso disponibili diverse modalità di otturato-

re, come la modalità otturatore globale che migliora la

cattura di soggetti in rapido movimento, alle spese di

un rumore relativamente alto, o la modalità ad ottura-

tore progressivo che riduce il rumore ma limita anche

la capacità di cogliere immagini in rapido movimento.

Questo articolo ha esplorato diversi aspetti chiave

del sensore di immagini come prima fase all’interno

della complessa catena del segnale che si trova al

cuore di un moderno sistema basato sulla visione

artificiale. Il prossimo articolo considererà i requisiti

di elaborazione del segnale a valle del sensore e le

soluzioni potenziali.

Fig. 1 – I SoC “all programmable” di Xilinx abbina la programmabilità

delle component hardware, software e degli I/O

Un video esplicativo è disponibile all’indirizzo

https://www.xilinx.com/products/

design-tools/embedded-vision-zone.html