Elettronica Plus

Power blog – Il cloud richiede un’alimentazione efficienteERT

Andamento del mercato delle infrastrutture IT per servizi cloud suddiviso per tipologia di installazione nel periodo 2015-2020 (fonte IDC)

La memorizzazione e l’elaborazione dei dati utilizzando servizi basati su cloud sono elementi essenziali per un funzionamento efficiente di un gran numero di attività aziende: si tenga presente che non si tratta solamente delle attività più ovvie come ad esempio shopping online, distribuzione di contenuti audio/video, social media e piattaforme di gioco. Altre risorse aziendali, di natura sia commerciale sia industriale, come punti vendita e impianti di produzione, fanno affidamento in misura sempre maggiore su dati che vengono caricati e memorizzati in modo remoto piuttosto che locale. L’adozione di un approccio di questo tipo comporta parecchi vantaggi tra cui: unificazione dei dati provenienti da più siti per consentire analisi più efficienti, minor dipendenza dalle risorse di elaborazione locali con conseguente riduzione della necessità di disporre di uno staff IT qualificato, garanzia della sicurezza dei dati in termini sia di backup sia di possibilità di contrastare accessi non autorizzati, elevata scalabilità che garantisce un’evoluzione sulla base delle esigenze aziendali senza incorrere nell’altrimenti inevitabile aumento delle spese in conto capitale (capex).
Oltre alla tendenza, da parte delle aziende, di utilizzare in misura sempre maggiore infrastrutture basate su cloud invece di ricorre a data center interni, un altro fenomeno da tenere in considerazione sono le nuove richieste di servizi cloud legate alla progressiva diffusione di Internet of Things (IoT). La connessione di oggetti, come sensori e dispositivi di controllo, a Internet rappresenta la base di una rivoluzione che promette di un livello di automazione sempre più spinto in ogni aspetto della vita quotidiana, dall’illuminazione, riscaldamento e sicurezza delle nostre abitazioni alle reti di trasporto.
Non può certo sorprendere il fatto che, secondo un recente studio di IDC, le spese per i data center e i sistemi hardware per applicazioni di cloud computing sono destinate a crescere con percentuali a due cifre negli anni a venire.
A tale crescita sono ovviamente associati dei costi che non sono solamente quelli legati all’acquisto di apparecchiature ma anche quelli relativi all’energia che viene consumata per l’alimentazione di queste ultime. In base ai dati forniti da parecchi studi, nel corso della durata operativa di un server, stimata in tre anni, il costo della sua alimentazione – che comprende anche le spese sostenute per i sistemi di raffreddamento necessari a garantire una temperatura adatta per il corretto funzionamento – può superare quello di acquisto dello stesso. Mentre sono state adottate parecchie misure per minimizzare i costi del raffreddamento, ad esempio realizzando i data center in località caratterizzate da climi rigidi e stabilendo livelli di temperature di funzionamento massimi più elevati, è necessario tener conto che il consumo di potenza di picco di una tipica scheda server passerà dagli attuali 2-3 kW ai 5 kW (o più) in un futuro non troppo lontano a causa del costante incremento delle prestazioni dei processori.
Per affrontare in modo efficace questo problema è necessario ricorrere a una soluzione di alimentazione in grado di ottimizzare l’efficienza in ogni stadio. Per conseguire tali obiettivo si è tradizionalmente fatto ricorso a un’architettura di potenza distribuita che adotta un approccio in realtà non molto diverso da quello utilizzato dalle aziende di distribuzione dell’elettrica che prevede il trasporto a tensioni più elevate e correnti inferiori per minimizzare le perdite imputabili alle resistenze dei conduttori che sono proporzionali alla corrente e alla distanza. Un’architettura di questo tipo solitamente comprende un convertitore AC-DC front-end che distribuisce una tensione di alimentazione di 48 VDC a ciascun alloggiamento (bay) del server rack. A questo punto un convertitore IBC (Intermediate Bus Converter – convertitore del bus intermedio) converte questo valore in una tensione di 12 V che viene distribuita a ciascuna scheda server. Sulla scheda, infine, sono presenti numerosi convertitori di tipo PoL (Point of Load), posizionati in prossimità ai componenti che consumano la maggior potenza, che forniscono il ridotto valore di tensioni richiesto da questi ultimi.
Un approccio di questo tipo si è rivelato adeguato ma l’introduzione di alimentatori a controllo digitale ha permesso di sfruttare nuove funzionalità grazie alle quali è possibile conseguire livelli di efficienza ancora maggiori. Utilizzando le doti di controllabilità rese possibili da PMBus, un protocollo standard industriale per la comunicazione con gli alimentatori digitali, i progettisti di sistemi sono stati in grado di sviluppare algoritmi software che permettono agli apparati di alimentazione di rispondere in tempo reale alle variazioni delle condizioni del carico. Sfruttando una tecnica di ottimizzazione come DVB (Dynamic Bus Voltage), ad esempio, è possibile regolare la tensione del bus intermedio in presenza di una richiesta di potenza elevata in modo tale che lo stadio IBC fornisca una tensione più alta al fine di ridurre la corrente in uscita e diminuire quindi le perdite di distribuzione.
Una tecnica più recente, denominata AVS (Adaptive Voltage Scaling), sfrutta invece le caratteristiche dei microprocessori e FPGA delle più recenti generazioni che consentono di adattare la tensione di alimentazione e la frequenza di clock al fine di assicurare che le richieste di elaborazione siano sempre soddisfatte con i consumi più bassi. La tecnica AVS prevede anche la compensazione automatica degli effetti delle variazioni di processo del silicio e delle fluttuazioni della temperatura di funzionamento. Al fine di supportare questa tecnica le specifiche PMBus sono state recentemente riviste con la definizione di AVSBus, grazie al quale un convertitore POL può rispondere alla richiesta di variazione adattativa della tensione proveniente dal processore collegato.

E’ iniziata l’era delle architetture SDP

Queste appena illustrate e altre tecniche simili segnano l’inizio dell’era delle architetture SDP (Software Defined Power). Esse dipendono dalla immediata reperibilità di alimentatori PoL e IBC a controllo digitale un certo numero di produttori ha iniziato a rendere disponibili. A questo punto sorge il problema della compatibilità di tipo “plug and play” tra alimentatori che a prima vista sembrano avere specifiche simili. Ciò è dovuto al fatto che tali alimentatori possono comportarsi in maniera diversa quando viene loro inviato un comando PMBus identico.
Una situazione di questo tipo ostacola l’adozione su vasta scala delle architetture SDP: per questo motivo nel mese di ottobre del 2014 si è costituito il consorzio Architects of Modern Power® (AMP Group) il cui obiettivo è definire standard per l’interoperabilità degli alimentatori IBC e PoL, compresa la standardizzazione dell’interpretazione dei comandi PMBus. Al momento attuale questo obbiettivo è stato raggiunto, grazie non solo alla definizione di standard per moduli PoL (cinque) e convertitori IBC (tre) che coprono un ampio intervallo di livelli di potenza e un grande varietà di fattori di forma, ma anche alla disponibilità di prodotti conformi a queste specifiche realizzati dai membri fondatori di AMP Group: CUI, Ericsson Power Modules e Murata.
La crescita della richiesta di servizi cloud è sempre sostenuta e non è più possibile ignorare la necessità di garantire un’alimentazione che sia la più efficiente possibile. L’approccio basata sulle architetture SDP rappresenta una valida soluzione ma per sfruttarne al meglio le potenzialità è garantire la scalabilità richiesta dagli operatori dei data center l’industria deve adottare standard come quelli sviluppati da AMP Group in grado di assicurare una reale compatibilità tra prodotti di costruttori differenti.
Ulteriori informazioni su AMP Group sono disponibili qui.