Sono numerosi e provenienti da fonti diverse i fenomeni e fattori di disturbo, in grado di compromettere l’integrità del segnale e la sua capacità di trasferire dati binari all’interno delle varie componenti che costituiscono un sistema elettronico. Nella normale accezione degli addetti ai lavori, un segnale è da intendersi ‘integro’ quando non è affetto da alterazioni o aberrazioni di varia natura che lo rendono difettoso.
Ad esempio, la diafonia (in inglese crosstalk) è un fenomeno che si manifesta per effetto di un accoppiamento elettromagnetico indesiderato fra i canali (piste, tracce) contigui di un circuito stampato, anche se non esistono connessioni elettriche fisiche fra i diversi link.
Un disturbo che nei sistemi multicanale risulta più evidente, quanto più lunghe sono le distanze, quindi i canali da percorrere, e quanto più elevata è l’energia, quindi i campi magnetici e le induttanze delle correnti in gioco all’interno dei singoli canali.
Vi possono essere molti altri tipi di disturbi. Come il jitter, in grado di compromettere la precisione dei meccanismi di temporizzazione e sincronia integrati nel sistema digitale. O le riflessioni, provocate da un’errata progettazione a livello di layout della Pcb (Printed circuit board). O, ancora, le oscillazioni e variazioni derivanti da modificazioni nelle ampiezze degli impulsi. E gli elementi del sistema elettronico coinvolti sono altrettanto numerosi. Può trattarsi non soltanto di difettosità nella struttura di comunicazioni della scheda (layout), ma anche di anomalie a livello dei punti di terminazione dei segnali, o di malfunzionamenti localizzati nella zona dei circuiti di pilotaggio.
Questione di velocità
Se fino a qualche anno fa l’integrità dei segnali poteva essere un problema meno sentito dai progettisti, rispetto ad altri aspetti tecnici, oggi la questione sta assumendo una rilevanza sempre maggiore nella realizzazione pratica dei vari sistemi. Perché? La ragione è essenzialmente legata alla velocità: quando si ha a che fare con segnali con tempi di salita (rise time) sotto il nanosecondo, le piste della Pcb non si possono più considerare come semplici collegamenti elettrici, ma vanno concepite come linee di comunicazione e trasmissione dove i campi elettromagnetici esistenti sono in grado di produrre fenomeni di distorsione dei segnali stessi.
L’aumento di frequenze e velocità è dovuto all’evoluzione che computer e sistemi elettronici hanno subìto negli ultimi due decenni. All’inizio, le applicazioni utilizzate dagli utenti erano fondamentalmente di tipo testuale. Oggi gli utilizzatori, sia nell’attività professionale, sia nel tempo libero, sui pc sono da tempo abituati a usare funzionalità, applicazioni e servizi sempre più sofisticati, con ampio uso di grafica potente, contenuti audio, immagini, video ad alta definizione. Tale tendenza non si arresta, anzi tende ad accentuarsi, e ciò implica requisiti di larghezza di banda sempre più elevati.
Foto Cadence
La tecnologia microelettronica, negli anni, ha dovuto adeguarsi a questo trend, sviluppando processori che operano a frequenze nell’ordine di grandezza dei gigahertz (GHz), oltre a memorie, sistemi d’interconnessione e bus seriali sempre più veloci. Una trasformazione avvenuta non solo a livello di computer e server, ma anche di reti di comunicazione wired e wireless, con la creazione d’infrastrutture di trasmissione a 40 e 100 gigabit (Gbit/s).
Nei semiconduttori, tale tendenza si esprime attraverso la realizzazione di circuiti integrati via via più miniaturizzati e di schede dotate di form factor sempre più compatti. L’obiettivo è aumentare la densità dei componenti per unità di superficie e ridurre progressivamente le distanze da coprire lungo i canali di comunicazione.
Eseguire una progettazione corretta dei circuiti digitali significa avere a che fare con le caratteristiche analogiche dei segnali numerici, prima accennate, fra cui crosstalk, jitter, impedenza, interferenza elettromagnetica (Emi), e utilizzare apparecchiature di test e misura per controllare e verificare con precisione i valori delle grandezze in vari domini. Diventa dunque necessario misurare parametri come il rise time, l’ampiezza dell’impulso, i valori legati al sistema di temporizzazione (timing) e il contenuto di rumore.
Fattori determinanti
Quando i circuiti operano a frequenze molto elevate (gigahertz) i valori di induttanza presenti sui vari link diventano particolarmente critici per conservare l’integrità del segnale, tanto da rendere estremamente importante una accurata comprensione e una corretta progettazione di specifiche componenti del sistema: fra queste vi sono, ad esempio, i percorsi compiuti dai segnali all’interno delle schede, gli stub, la distribuzione dei meccanismi di temporizzazione, ma anche le tecniche di disaccoppiamento dei campi elettromagnetici e di distribuzione della potenza.
Un segnale digitale di qualità deve essere privo di aberrazioni e jitter, ma più aumenta la velocità dei sistemi elettronici, più è difficile mantenerne l’integrità. Man mano che si passa a frequenze più elevate, aumenta infatti la possibilità che si manifestino, ad esempio, problemi nei tempi di salita (rise time) degli impulsi.
Può accadere che l’integrità del segnale digitale venga compromessa in fase di uscita da un bus di comunicazione o da un device, con la generazione di bit errati che vanno a influire negativamente sul funzionamento del sistema. Uno dei casi tipici che può presentarsi è quando si verifica un conflitto nell’utilizzo di un bus di trasmissione dati da parte di due diversi device di pilotaggio.
A livello del sistema di timing, possono poi manifestarsi violazioni dei tempi di setup (setup time) e hold (hold time) nei dispositivi comandati da clock. Una condizione che può ad esempio verificarsi nei circuiti flip-flop di tipo D, in cui è necessario che il setup time, cioè il tempo minimo per cui il segnale dati deve essere mantenuto stabile prima dell’impulso di clock, e l’hold time (la quantità minima di tempo per cui il lo stesso segnale va mantenuto stabile dopo l’evento di clock) siano rispettati. Altrimenti si verifica una condizione, cosiddetta di metastabilità, che produce anomalie nel segnale in uscita. Evitare la metastabilità risulta però sempre più difficile, in rapporto alla crescente velocità dei dispositivi, che impone la definizione di setup time e hold time sempre più contenuti.
Sfide progettuali
Vi sono chiare sfide sull’integrità del segnale legate all’evoluzione dei semiconduttori e alla prossima generazione di chip, commenta Brad Griffin, product marketing director di Cadence. E tali sfide hanno a che fare con la velocità e i livelli di tensione esistenti nei circuiti. Ad esempio, con il passaggio dalle interfacce di memoria di tipo DDR3 a quelle DDR4, le velocità di clock salgono, i livelli di tensione si riducono, e in questo modo non restano molti margini operativi per correggere gli inconvenienti a livello di temporizzazione (tempi di setup e hold) e di ripple.
Foto Cadence
Ma c’è un altro problema da considerare. “Meno ovvie da affrontare sono le sfide imposte dai progetti derivati di circuiti integrati. Tali sistemi derivati sono finalizzati a sostituire componenti di precedenti generazioni e si prefiggono di ridurre i costi e i consumi di energia, ma spesso utilizzano nuova tecnologia di I/O, caratterizzata da tempi di salita più rapidi. E anche se il chip opera alla stessa frequenza, il fatto di avere rise time più veloci può causare diafonia e problemi di qualità del segnal
e, non sperimentati nei chip della generazione precedente”. Di conseguenza, tale genere di problemi può causare malfunzionamenti e avarie nelle schede di sistema.
Una delle principali problematiche incontrate durante gli sforzi progettuali per conservare l’integrità dei segnali è legata alla qualità dei sistemi di alimentazione dei dispositivi, spiega Maurizio Pogliani, field application engineer di Linear Technology. Le interfacce di comunicazione sono sempre più veloci, come ad esempio nel caso delle SerDes (serializer/deserializer) dei dispositivi Fpga (Field programmable gate array). “Le elevate frequenze operative dei sistemi digitali e i molteplici livelli di rail di alimentazione, la gestione delle sequenze di start-up e shut-down, rendono la progettazione dei sistemi di power per queste applicazioni, sempre più critica e complessa”. Per non parlare del layout, che deve inserirsi in schede multi-layer con elevato numero di connessioni.
Foto Linear
“A proposito di ciò, l’alimentazione del sistema deve essere qualitativamente elevatissima e rispettare alcuni requisiti minimi”. Fra questi vi sono: un basso ripple di tensione in uscita; la capacità di generare il minor numero di frequenze ‘fondamentali’ possibili, e di gestire in maniera accurata le sequenze. Inoltre, aggiunge Pogliani, occorre ottenere alti livelli di rendimento, a causa dei sempre più elevati consumi; avere la possibilità di gestire la marginazione e/o livelli di tensione programmabili, e disporre di un buon sistema di telemetria. È poi importante che il layout della Pcb sia realizzato a regola d’arte.
Sistemi di osservazione chiave
L’identificazione di anomalie nei segnali digitali, in molti casi, si può ottenere più facilmente quando è possibile visualizzare una rappresentazione analogica degli stessi. Infatti, ciò che può verificarsi è che difetti nelle caratteristiche analogiche del segnale producano anomalie digitali, come il manifestarsi di stati logici errati. Per tale ragione, nell’analisi dell’integrità dei segnali è utile poter osservare il comportamento di un insieme di impulsi digitali, attraverso interfacce in grado di visualizzare simultaneamente anche il corrispondente andamento analogico.
Gli strumenti classici per la misura e la verifica dell’integrità dei segnali sono il logic analyzer e l’oscilloscopio. L’analizzatore logico consente di identificare l’esistenza di anomalie digitali anche su sistemi caratterizzati da elevata complessità e costituiti da svariati bus e interfacce di I/O. E ciò grazie al fatto che lo strumento è dotato di un elevato numero di canali, di funzionalità di trigger evolute e di sonde, per l’acquisizione contemporanea di informazioni digitali da diversi punti di test.
L’utilizzo degli oscilloscopi digitali consente invece di rilevare problemi di integrità del segnale a livello analogico. Qui un parametro fondamentale da considerare è la frequenza di campionamento che, quando viene ridotta, può influenzare negativamente la qualità dell’acquisizione del segnale, perché vengono rilevati meno campioni ad ogni ciclo di misurazione.
Un altro fattore tecnico molto importante da valutare nella messa a punto di un apparato di test e misura destinato ad analizzare l’integrità di un determinato segnale è anche la tipologia della sonda da utilizzare in abbinamento con l’oscilloscopio. In particolare le caratteristiche chiave di una sonda da adottare per l’analisi di segnali a frequenze elevate sono la capacità e l’induttanza. Queste due grandezze aumentano infatti al crescere della frequenza, e il loro effetto combinato può determinare fenomeni in grado di alterare il comportamento del segnale. L’utilizzo di una sonda sbagliata introduce quindi ulteriori variabili di errore nella catena di sottosistemi di test che, nel loro complesso, devono poter analizzare l’integrità del segnale con un’accuratezza il più possibile elevata.