Xilinx presenterà i system vision intelligenti, reattivi e riconfigurabili a Embedded World 2017 a Norimberga. Le conferenze e le demo illustreranno come i tool, le librerie e le metodologie di Xilinx forniscano le funzioni di apprendimento automatico, di visione artificiale, di sensor fusion e di connettività all’interno dei system vision intelligenti.
Alla Hall 1/1-205, Xilinx presenta le seguenti dimostrazioni:
- Sistema di monitoraggio del conducente – Presentato da Xylon
Questa dimostrazione delle funzioni di monitoraggio della testa e delle palpebre in tempo reale è combinata con la misura precisa della direzione dello sguardo che consente il rilevamento affidabile dell’attenzione e dello stato del conducente, in un’ampia gamma di condizioni gravose. Il sistema di monitoraggio del conducente di Xylon, basato sul SoC Zynq® interamente Programmabile di Xilinx®, è una piattaforma qualificata per applicazioni automotive, fornisce l’affidabilità richiesta per ottimizzare il partizionamento dei sistemi, assicurando le prestazioni di elaborazione del sistema di visione a un costo abbordabile con un profilo di consumo relativamente basso.
- Un sistema di telecamere di volo basato su infrastruttura ADAS —Presentato da Xylon
Il sistema avanzato a visione panoramica in questa demo fornisce una visione emisferica in 3D dell’ambiente circostante al veicolo, mettendo il conducente in grado di regolare dinamicamente la visione prospettica. Questo sistema utilizza l’MPSoC Zynq® UltraScale™+ con dispositivo quad core ARM® Cortex™-A53 e due core ARM Cortex R5, oltre alla GPU Mail™-400 per la resa del modello dell’autovettura. I clienti possono utilizzare il parallelismo della matrice FPGA e ottimizzare le proprie funzionalità uniche che sono critiche per l’elaborazione in tempo reale.
- Accelerazione hardware del flusso ottico denso 4K60 — Presentato da Xilinx
Questa dimostrazione mostra la potenza degli MPSoC Zynq Ultrascale+ eseguendo un algoritmo di flusso ottico denso allo stato dell’arte con una risoluzione 4K a 60 fotogrammi al secondo nella logica programmabile.
- Apprendimento approfondito, visione artificiale, e sensor fusion – Presentato da Xilinx
Questa dimostrazione combina i tre principali algoritmi complessi usati comunemente nei sistemi con funzioni di visione che oggi includono le reti neurali convoluzionali (CNN) per il rilevamento di oggetti o la segmentazione delle scene, il flusso ottico denso per l’inseguimento del movimento e la visione stereoscopica per la percezione approfondita, che girano su un singolo dispositivo MPSoC Zynq Ultrascale+.
- Compressione in tempo reale e riproduzione in streaming di video UHD HEVC
Attraverso il blocco hardware con funzione video codec integrato all’interno dei dispositivi MPSoC EV Zynq UltraScale+ è possibile ottenere la compressione/decompressione e trasmissione di video UHD in tempo reale a una bassa latenza. Supportando il video fino a 8K, il codec video consente il trasferimento dei dati con larghezza di banda ridotta e a bassa latenza per applicazioni video in tempo reale che includono il pilotaggio dei droni e le videoconferenze.
- Sistema robotico di visione embedded con riconoscimento accelerato delle immagini – presentato da MLE
Questa dimostrazione delle operazioni di presa e posizionamento di oggetti utilizza le reti neurali per il riconoscimento con visione artificiale attraverso la logica programmabile. L’implementazione su logica programmabile accelera il riconoscimento delle immagini di oltre un fattore 1000 rispetto alle implementazioni su software, aumentando al contempo l’accuratezza del riconoscimento e l’affidabilità richieste dalle applicazioni basate sulla visione ad alte prestazioni e con funzione critica.
- Videocamera industriale con riconoscimento degli oggetti in 3D per la visione artificiale —Presentato da iVeia
L’architettura eterogenea dell’MPSoC Zynq UltraScale+ e la sua capacità di eseguire algoritmi tradizionali basati su PC su una piattaforma embedded di videocamera per accelerare il time-to-market nelle applicazioni di visione artificiale.
- Il drone dobby dotato di intelligenza artificiale — Presentato da ZeroTech e Deephi Deep Learning
Dobby AI di Zerotech è un drone di dimensioni tascabili che sfrutta l’apprendimento approfondito per rilevare gesti umani ed è basato sui dispositivi SoC Zynq di Xilinx. Questa dimostrazione illustrerà anche le tecnologie di inferenza basate sull’apprendimento approfondito di DeePhi.
- Sistema di riferimento per la sicurezza funzionale —Presentato da Ikerlan
Un modello completo di progetto per soluzioni personalizzate con tolleranza hardware ai guasti (HFT=1) su un singolo dispositivo, conforme alla norma IEC 61508:2010 e basato su un dispositivo SoC Zynq di Xilinx. Verrà presentato un sistema di supporto avanzato con una funzione completa di inserimento degli errori controllata da PC attraverso il nuovo sistema di riferimento per la sicurezza dei SoC Zynq di Xilinx.
- Un gateway intelligente per la cybersicurezza —Presentato da SoCe
Questa dimostrazione combina la sensor fusion, la cybersicurezza, la comunicazione in tempo reale e il controllo con apprendimento automatico, assicurando la disponibilità del sistema dalle interfacce utente al cloud, il tutto su piattaforma SoC Zynq di Xilinx. Il gateway intelligente pronto per la produzione è sincronizzabile e assicura l’interoperabilità sicura in rete e il controllo sicuro dando prova della convergenza della Tecnologia Operativa con l’information technology.
- Sistemi di controllo industriali interamente programmabili —Presentato da BE Services, Matrikon e RTI
Verrà illustrato un sistema di controllo industriale (ICS) che fornisce una piattaforma pronta all’uso, dando prova dell’interoperabilità in rete con funzioni sicure di analisi delle interfacce estendibili al cloud, ed è basata sulle funzionalità Interamente Programmabili dei dispositivi Soc Zynq e MPSoC UltraScale+Zynq.
Sempre allo stand di Xilinx sarà possibile assistere a un ricco programma di conferenze:
Tutte le informazioni disponibili a questo link:
https://www.xilinx.com/about/events/2017_xilinx_embedded_world.html – participation