EO_498

EO LIGHTING - NOVEMBRE/DICEMBRE 2021 IX EVENT-BASED VIDEO SENSOR Principio di funzionamento dell’occhio umano (in alto) e del sensore EVS (in basso) Sensori EVS: principio di funzionamento I recettori posti sulla retina, quando esposti alla luce, la convertono in segnali visivi che vengono inviati al cervello. A questo punto le celle neuronali identificano luci e ombre e questa informazione è trasmessa alla corteccia visiva nel cervello attraverso le cellule gangliari della retina. In un sensore EVS la luce incidente è convertita in segnali elettrici nel circuito di ricezione dell’imager (registratore di immagini). I segnali passano attraverso l’unità di amplificazione e raggiungono un comparatore dove i dati di luminanza differenziale sono separati e divisi in segnali positivi e negativi che vengono quindi elaborati e resi disponibili in uscita come eventi. Immagine con i dati degli eventi accumulati equivalenti a un singolo fotogramma acquisito a 30 fps: filtro disabilitato (a sinistra) e filtro abilitato (a destra). Come si può vedere nell’immagine a destra si ha una riduzione del volume dei dati pari a circa il 92% rispetto all’immagine a sinistra anche per l’elevata risoluzione dell’uscita. L’insieme di tali caratteristiche assicura il rilevamento immediato di ogget- ti in movimento in una pluralità di ambienti e situazioni. La realizzazione di questi due sensori è frutto della combi- nazione tra la tecnologia CMOS alla base dei sensori di im- magine di Sony e la tecnologia di rilevamento visivo basato sugli eventi di Prophesee . Un’acquisizione dati più efficiente Nelle odierne apparecchiature industriali, sempre più com- plesse e in grado di assolvere un numero via via crescente di compiti, l’utilizzo di tecniche di rilevamento per estrar- re le informazioni richieste dalle immagini catturate dalle telecamere continua ad aumentare, così come la richiesta di una maggiore efficienza nell’operazione di acquisizione dati. Con il metodo “frame-based” (ovvero basato sui foto- grammi) comunemente utilizzato, l’intera immagine viene resa disponibile in uscita a intervalli regolari, la cui fre- quenza è determinata dalla velocità di acquisizione (frame rate). Con la metodologia utilizzata da Sony, invece, solo i pixel che hanno rilevato una variazione di luminanza rela- tivamente a un oggetto producono un’uscita, consentendo in tal modo al sensore di rilevare immediatamente le va- riazioni di luminanza. Sensori di questo tipo possono “captare” variazioni di lie- ve entità nelle vibrazioni, un’informazione questa molto utile nella manutenzione predittiva di un’apparecchiature in quanto possono rappresentare un sintomo di eventua- li anomalie. Essi possono anche rilevare variazioni nel- le scintille prodotte nel corso di alcuni tipi di operazioni (come la saldatura e il taglio dei metalli), un dato che l’ope- ratore può sfruttare per determinare il momento ottimale per procedere alla sostituzione dell’utensile. I nuovi sensori di Sony sono equipaggiati con funzioni di filtraggio sviluppate da Prophesee per eliminare i dati re- lativi a eventi non necessari per i compiti di riconoscimen- to in corso, come a esempio lo sfarfallio di un LED che si può verificare a determinate frequenze), oppure eventi che quasi sicuramente non riconducibili al contorno di un og- getto in movimento (filtro degli eventi). Tali filtri permet- tono inoltre di adattare, quando necessario, il volume dei dati inmodo che risulti inferiore alla frequenza degli eventi che i sistemi posti a valle sono in grado di elaborare. Creato in collaborazione tra Sony e Prophesee e disponibile da quest’ultima, Metavision Intelligence Suite è un software per l’elaborazione dei segnali dell’evento che permette di ot- timizzare le prestazioni di questi sensori. L’abbinamento tra questo software e i sensori di visione “event based” di Sony garantisce uno sviluppo efficiente delle applicazioni e per- mette di implementare soluzioni per numerosi casi d’uso.

RkJQdWJsaXNoZXIy Mzg4NjYz