Table of Contents Table of Contents
Previous Page  19 / 84 Next Page
Information
Show Menu
Previous Page 19 / 84 Next Page
Page Background

19

EMBEDDED

MAGGIO

BIG DATA |

IN TEMPO REALE

che lento e dispendioso in termini di banda. Ciò è

tanto più vero quando sensori, tag e dispositivi em-

bedded IoT intelligenti che utilizzano connessioni

wireless devono soddisfare determinati requisiti

di velocità trasmissiva e consumare poca energia,

per essere in grado di operare per lunghi periodi di

tempo senza necessità di ricarica.

Problemi come questi stanno orientando la pro-

gettazione delle architetture IoT verso soluzioni in

grado di eseguire almeno le funzioni di pre-elabora-

zione dati già a livello locale, trasmettendo ai moto-

ri di analisi nel cloud solo le informazioni rilevan-

ti. Da questo punto di vista, in particolare, stanno

acquistando importanza architetture che vengono

À

D

D% E

-

trambe puntano a portare potenza e intelligenza di

elaborazione più vicino a dove i dati vengono origi-

nati, quindi più vicino ai sensori e dispositivi che si

trovano alla periferia della rete.

Fog computing e edge computing

Pur essendo spesso assimilate a un unico concetto,

le architetture di fog computing e edge computing

presentano differenze nel posizionamento dell’in-

telligenza e della potenza computazionale che

viene aggiunta all’infrastruttura. Mentre nel fog

computing tale intelligenza viene portata a livel-

lo della LAN (local area network), e integrata in

nodi, appliance e gateway IoT, nel caso dell’edge

computing, intelligenza e funzionalità di elabora-

zione sono aggiunte in zone ancora più periferiche

dell’architettura di rete, integrandole direttamen-

te in dispositivi come i PAC (programmable auto-

mation controller).

Elaborare, o pre-elaborare, i dati già a livello loca-

le, nella periferia di rete, fornisce diversi vantaggi:

non soltanto quello di risparmiare banda, ma an-

che l’opportunità di sfruttare sempre più in “tem-

po reale” le informazioni decisive per migliorare

% 2

À

di privacy, security e conformità con le normative

di settore, derivanti dal fatto che i vari sensori,

dispositivi ed endpoint non hanno necessità di

tramettere di continuo verso il cloud, attraverso

Internet, dati sensibili. Occorre tuttavia precisa-

re che tali architetture di elaborazione distribuite

continuano a conservare un ruolo complementare

rispetto al cloud, di cui non possono sostituire le

risorse di elaborazione, la potenza analitica e le

funzionalità di machine learning.

La fase di pre-elaborazione è necessaria a prepara-

re i dati, prima dell’utilizzo vero e proprio all’inter-

no dei modelli e algoritmi predittivi. In questa fase,

À

-

zioni, rumore del segnale; trasformati e ridotti a

livello dimensionale, attraverso operazioni indiriz-

Á

punto di vista predittivo, e a individuare ed estrar-

re dati utili ad accrescere i risultati ottenibili dagli

algoritmi di analisi nella fase successiva.

In quest’ultima, i dati pre-elaborati sono analizzati

attraverso modelli predittivi, in grado di individua-

re schemi e far emergere informazioni preziose per

% F

À

dell’applicazione, occorre stabilire quando è conve-

niente applicare gli algoritmi analitici convenzio-

nali, quindi classici modelli matematici ed equa-

> À

À

-

to automatico (machine learning).

Nel primo caso, l’implementazione del progetto può

risultare più semplice, in quanto basata su algo-

À

risorse computazionali e più adattabili all’uso con

i sistemi embedded. Nel secondo caso, si parla di

algoritmi di machine learning, non più basati su

equazioni o modelli predeterminati, ma in grado di

apprendere, ed evolversi in maniera autonoma, in

rapporto alle nuove informazioni elaborate. In so-

stanza, più dati analizzano, più i sistemi di machi-

À

À

À

eseguire un determinato compito.

Fig. 4 – La piattaforma IoT “cloud-based” MindSphere

di Siemens

(Fonte: Siemens)