SECO sarà presente a embedded world North America, evento che si svolgerà a Austin, in Texas, dall’8 al 10 ottobre 2024.
Durante al manifestazione, SECO presenterà una vasta gamma di soluzioni embedded e la sua suite software per l’IoT, Clea. I visitatori potranno inoltre assistere a dimostrazioni delle capacità di edge AI di SECO, che evidenziano le collaborazioni strategiche con aziende come Qualcomm e Axelera AI.
Per i prodotti, i visitatori dello stand potranno vedere i moduli SOM-SMARC-MX93, SOM-COMe-BT6-RPL-P, SOM-COM-HPC-A-MTL e il Single Board Computer SBC-pITX-EHL.
SECO propone inoltre PC industriali, e, a embedded world North America, saranno in primo piano i modelli Palladio 500 RPL, Modular Link MX93 e Titan 300 TGL-UP3 AI.
Durante l’evento saranno presentati due nuovi kit di sviluppo per moduli SMARC, con un focus speciale sul modulo SOM-SMARC-QCS6490 basato su processori Qualcomm. Questo kit è stato ideato per la realizzazione di Proof of Concept (PoC) e per accelerare lo sviluppo del prodotto.
Il secondo kit di sviluppo, invece, è focalizzato sulla prototipazione rapida e lo sviluppo software. Il kit è particolarmente interessante infatti per la sperimentazione, lo sviluppo software e l’ottimizzazione delle architetture dei prodotti prima dell’implementazione in una carrier board specifica.
I prodotti hardware di SECO sono integrati con Clea, la suite software progettata per supportare le infrastrutture IoT industriali.
Clea OS, un nuovo componente dello stack tecnologico di Clea, agevola il deployment di dispositivi IoT. Questo sistema operativo Linux embedded di livello industriale, basato su Yocto, si integra con il cloud e permette agli ingegneri di concentrarsi sullo sviluppo di prodotto. Clea OS è compatibile sia con i prodotti edge di SECO che con hardware di terze parti.
Per la parte demo, i visitatori potranno assistere a dimostrazioni interattive. La prima riguarda la sicurezza gestita dall’edge AI e il situational management. La seconda dimostrazione illustra invece la tecnologia emergente dell’esecuzione dei Large Language Models (LLM) AI sull’edge, sviluppata dal team di data scientist ed esperti AI di SECO.