TECH INSIGHT
SMARTER VISION
22
- ELETTRONICA OGGI
459
-
GENNAIO
/
FEBBRAIO
2017
La corrente di buio è causata dal rumore termico
all’interno del sensore di immagini ed è presente an-
che in assenza di illuminazione. L’impatto del segna-
le di buio sulla qualità dell’immagine finale è meno
significativo a velocità dei fotogrammi elevate. Essa
dipende anche dalla temperatura, e così potrebbe es-
sere ridotta con il raffreddamento del sensore usando
un dispositivo come ad esempio un elemento Peltier.
La comprensione del modello di rumore aiuta a de-
terminare il rapporto segnale/rumore (SNR) che può
essere ottenuto. In seguito è possibile determinare
l’intervallo dinamico richiesto. Quest’ultimo quanti-
fica la capacità del sensore di catturare le immagini
che contengono sia aree fortemente illuminate, sia
aree buie. È generalmente espresso in dB o come rap-
porto fra la capacità del pixel (il numero di elettroni
che il pixel è in grado di gestire prima di saturare) e
il rumore di lettura del pixel. L’intervallo dinamico è
spesso determinato effettuando un test della curva di
trasferimento dei fotoni, che traccia l’andamento del
rumore rispetto alla capacità dei pixel. Se il dispositi-
vo è dotato di un’uscita digitale, l’intervallo dinamico
può anche essere influenzato dal numero di bit.
Ulteriori criteri di progetto
Inoltre, è importante considerare lo standard di I/O
adottato per i dati, i comandi e le connessioni di con-
trollo, che può influenzare la velocità effettiva dei
fotogrammi. Ad esempio, LVCMOS non è adatto per
velocità elevate dei fotogrammi, ma è accettabile per
una semplice fotocamera di monitoraggio. Le con-
nessioni LVDS ad alta velocità serializzate e dedicate
sono tipicamente usate laddove sono richiesti valori
elevati di velocità dei fotogrammi, di risoluzione e di
bit per pixel.
In aggiunta, i sensori potrebbero essere a colori o
di tipo monocromatico. La scelta sarà determinata
dai requisiti dell’applicazione. Un sensore di colore
richiede l’uso di un filtro a schema di Bayer in cima
a ciascun pixel che alterna rosso e blu in una linea
e blu e verde nella successiva. La tendenza verso il
verde riflette il fatto che l’occhio umano è più sensibi-
le alle lunghezze d’onda nel verde. Il colore reale del
pixel è determinato attraverso la post-elaborazione,
usando i risultati ottenuti dai pixel circostanti. Que-
sto può ridurre la risoluzione dell’immagine anche di
circa il 20%.
In un sensore monocromatico ciascun pixel riceve
tutti i fotoni, dato che non è presente uno schema di
Bayer in cima alla matrice di pixel dell’immagine. Ciò
consente di ottenere una maggiore sensibilità dell’im-
magine, e consente una semplice lettura della stessa,
non essendo necessaria la demosaicatura per la rico-
struzione del colore.
Se la procedura di selezione suggerisce l’uso di un
sensore di immagini CMOS, questo è in realtà un di-
spositivo SoC complesso dedicato che fornisce ai
progettisti ulteriori possibilità di scelta e di considera-
zioni di progetto. Il tempo di integrazione, ad esempio,
deve generalmente essere configurato scrivendo in
un registro attraverso l’interfaccia comandi. Inoltre,
sono spesso disponibili diverse modalità di otturato-
re, come la modalità otturatore globale che migliora la
cattura di soggetti in rapido movimento, alle spese di
un rumore relativamente alto, o la modalità ad ottura-
tore progressivo che riduce il rumore ma limita anche
la capacità di cogliere immagini in rapido movimento.
Questo articolo ha esplorato diversi aspetti chiave
del sensore di immagini come prima fase all’interno
della complessa catena del segnale che si trova al
cuore di un moderno sistema basato sulla visione
artificiale. Il prossimo articolo considererà i requisiti
di elaborazione del segnale a valle del sensore e le
soluzioni potenziali.
Fig. 1 – I SoC “all programmable” di Xilinx abbina la programmabilità
delle component hardware, software e degli I/O
Un video esplicativo è disponibile all’indirizzo
https://www.xilinx.com/products/design-tools/embedded-vision-zone.html