EO_500
ELETTRONICA OGGI 500 - MARZO 2022 47 DIGITAL PREDICTIVE MAINTENANCE identità, registrano i messaggi e forniscono il collegamento al cloud o ai gateway locali. Non è vantaggioso spostare i dati a monte se il gateway è anche in grado di eseguire localmente le analisi e l’apprendimento automatico, e questa funzionalità deve tenere in considerazione gli aspetti di dimensionamento della CPU e della memoria in fase di dimensionamento delle piattaforme dei gateway sul campo. Lo strato di ricerca è ciò che i data scientist, i tecnici e i gestori degli impianti richiedono per interrogare tutti i dati, inclusi gli ultimi dati aggiunti, per fornire un sistema di analisi quasi in tempo reale. L’architettura Kappa Molte organizzazioni possono disporre sia di lotti di dati sia di dati in tempo reale e con requisiti di latenza globalemolto rigorosi, sui quali è possibile effettuare trasformazioni complesse, comprese le tecniche di analisi della qualità dei dati a livello di flusso. Di conseguenza, l’architettura Kappa è uno schema esecutivo che opera amonte del flusso di dati. La piattaforma Apache Kafka viene utilizzata per incorporare i dati e incanalarli in unità di elaborazione del flusso come Apache Spark, Apache Flink e altri, per trasformare e pubblicare i dati arricchiti sul livello di servizio ai fini della creazione di report e cruscotti. Requisiti hardware per i dispositivi a bordo rete ai fini dell’elaborazione PdM4.0 Per eseguire l’architettura Lambda o Kappa, i dispositivi e i gateway abordo rete che sono sistemi embedded richiedono prestazioni di elaborazione e densità di memoria adeguate. Ad esempio, concentriamoci sulla piattaforma Apache Kafka, che può essere eseguita in un sistema embedded di questo tipo a supporto delle architetture Lambda e Kappa. La sua esecuzione può avvenire in base a diverse configurazioni, incluse quelle puramente hardware (bare metal), con macchine virtuali (VM), container e così via. Il requisito hardware minimo per eseguire Apache Kafka con requisiti molto contenuti è un processore su core singolo e alcune centinaia di megabyte di RAM. Tuttavia, tale esecuzione su piccola scala non è sufficiente per fornire l’adeguata qualità del servizio per le architetture Lambda e Kappa. Nello specifico, nel concetto di sistema della piattaformaApacheKafkailflussodimessaggièsuddivisoin particolari categorie denominate argomenti. Tali messaggi sono pubblicati su argomenti specifici utilizzando processi dedicati chiamati produttori. Imessaggi pubblicati vengono quindi archiviati nel gruppo di server chiamati broker. Fondamentalmente il broker Kafka si aspetta un client che genera dati (l’apparecchio sul campo), il quale inserirà i messaggi nel sistema, il client utente (il dispositivo a bordo rete) che li estrarrà e i tool del client di amministrazione (nell’apparecchio di campo e nel dispositivo a bordo rete) che consentono la creazione e l’eliminazione di argomenti e la configurazione delle impostazioni di sicurezza. Proprio queste considerazioni iniziali sui tool broker, di produzione, lato utente e di amministrazione danno un’idea delle diverse esigenze. Al lato produzione, se aggiungiamo la sezione di rete e la raccolta dati, le prestazioni di calcolo e lo spazio in memoria possono costituire un problema serio per un sistema embedded. Pertanto, i sistemi informatici Fig. 3 – Ambiente analitico per l’estrazione dei dati secondo la tecnica PdM4.0
Made with FlippingBook
RkJQdWJsaXNoZXIy Mzg4NjYz