19
EMBEDDED
MAGGIO
BIG DATA |
IN TEMPO REALE
che lento e dispendioso in termini di banda. Ciò è
tanto più vero quando sensori, tag e dispositivi em-
bedded IoT intelligenti che utilizzano connessioni
wireless devono soddisfare determinati requisiti
di velocità trasmissiva e consumare poca energia,
per essere in grado di operare per lunghi periodi di
tempo senza necessità di ricarica.
Problemi come questi stanno orientando la pro-
gettazione delle architetture IoT verso soluzioni in
grado di eseguire almeno le funzioni di pre-elabora-
zione dati già a livello locale, trasmettendo ai moto-
ri di analisi nel cloud solo le informazioni rilevan-
ti. Da questo punto di vista, in particolare, stanno
acquistando importanza architetture che vengono
À
D
D% E
-
trambe puntano a portare potenza e intelligenza di
elaborazione più vicino a dove i dati vengono origi-
nati, quindi più vicino ai sensori e dispositivi che si
trovano alla periferia della rete.
Fog computing e edge computing
Pur essendo spesso assimilate a un unico concetto,
le architetture di fog computing e edge computing
presentano differenze nel posizionamento dell’in-
telligenza e della potenza computazionale che
viene aggiunta all’infrastruttura. Mentre nel fog
computing tale intelligenza viene portata a livel-
lo della LAN (local area network), e integrata in
nodi, appliance e gateway IoT, nel caso dell’edge
computing, intelligenza e funzionalità di elabora-
zione sono aggiunte in zone ancora più periferiche
dell’architettura di rete, integrandole direttamen-
te in dispositivi come i PAC (programmable auto-
mation controller).
Elaborare, o pre-elaborare, i dati già a livello loca-
le, nella periferia di rete, fornisce diversi vantaggi:
non soltanto quello di risparmiare banda, ma an-
che l’opportunità di sfruttare sempre più in “tem-
po reale” le informazioni decisive per migliorare
% 2
À
di privacy, security e conformità con le normative
di settore, derivanti dal fatto che i vari sensori,
dispositivi ed endpoint non hanno necessità di
tramettere di continuo verso il cloud, attraverso
Internet, dati sensibili. Occorre tuttavia precisa-
re che tali architetture di elaborazione distribuite
continuano a conservare un ruolo complementare
rispetto al cloud, di cui non possono sostituire le
risorse di elaborazione, la potenza analitica e le
funzionalità di machine learning.
La fase di pre-elaborazione è necessaria a prepara-
re i dati, prima dell’utilizzo vero e proprio all’inter-
no dei modelli e algoritmi predittivi. In questa fase,
À
-
zioni, rumore del segnale; trasformati e ridotti a
livello dimensionale, attraverso operazioni indiriz-
Á
punto di vista predittivo, e a individuare ed estrar-
re dati utili ad accrescere i risultati ottenibili dagli
algoritmi di analisi nella fase successiva.
In quest’ultima, i dati pre-elaborati sono analizzati
attraverso modelli predittivi, in grado di individua-
re schemi e far emergere informazioni preziose per
% F
À
dell’applicazione, occorre stabilire quando è conve-
niente applicare gli algoritmi analitici convenzio-
nali, quindi classici modelli matematici ed equa-
> À
À
-
to automatico (machine learning).
Nel primo caso, l’implementazione del progetto può
risultare più semplice, in quanto basata su algo-
À
risorse computazionali e più adattabili all’uso con
i sistemi embedded. Nel secondo caso, si parla di
algoritmi di machine learning, non più basati su
equazioni o modelli predeterminati, ma in grado di
apprendere, ed evolversi in maniera autonoma, in
rapporto alle nuove informazioni elaborate. In so-
stanza, più dati analizzano, più i sistemi di machi-
À
À
À
eseguire un determinato compito.
Fig. 4 – La piattaforma IoT “cloud-based” MindSphere
di Siemens
(Fonte: Siemens)