I riscontri provenienti da oltre 35.000 clienti sparsi in tutto il globo, un’intensa attività di ricerca di sviluppo (che assorbe il 16% del fatturato), incontri regolari con i fornitori chiave, riunioni periodiche con i responsabili dei dipartimenti di ingegneria di collaudo: queste le basi che NI utilizza per definire i trend che plasmeranno il futuro dei test automatizzati.
“Questi trend – ha spiegato Anna Pedale, field marketing engineer di National Instruments nel corso della presentazione dell’NI Automated Test Outlook 2016 – si possono dividere in cinque categorie – strategie commerciali, architettura, elaborazione, software e I/O – per ciascuna delle quali abbiamo evidenziato un aspetto importante che nella nostra visione influenzerà in modo sensibile il test automatizzato nel prossimo triennio”.
Per quanto concerne le strategie commerciali NI si è focalizzata sulle tecnologie a onde millimetriche (base del 5G prossimo venturo): i produttori di integrati a radiofrequenza devono infatti affrontare sfide impegnative per validare in modo economico componenti operanti a frequenze molto elevate. Da qui la necessità di adottare hardware modulare e software scalabili per collaudare con esito positivo le frequenze tipiche delle onde millimetriche.
A livello di architettura, è ormai indispensabile ricorrere a un software per la gestione del test, grazie al quale ogni sviluppatore può dedicarsi alla scrittura del miglior test per ciascun componente del DUT utilizzando il linguaggio più adatto (C, LabView, Python e così via) senza doversi preoccupare su come comunicare con le altre porzioni del codice.
Per la parte di I/O, NI ritiene indispensabile una standardizzazione delle piattaforme, dalla caratterizzazione alla produzione. “Al giorno d’oggi – ha sottolineato Pedale – gli strumenti PXI garantiscono l’accuratezza di misura richiesta dall’R&S e la velocità necessaria per i test di produzione”.
Nell’ambito del software, uno dei punti chiave è la gestione del ciclo di vita: non è un concetto nuovo in assoluto, ma si tratta di un’attività sempre più complessa che deve tener conto dell’evoluzione della tecnologia mobile, della rapida obsolescenza dell’hardware e all’aumento dei costi di convalida del software.
Nel campo dell’elaborazione l’analisi dei dati di produzione – che annualmente sono dell’ordine delle decine di TB – in tempo reale è divenuto un fattore critico per la riduzione dei test in produzione. Oggigiorno la maggior parte delle aziende operanti nel settore dei semiconduttori sfrutta la potenza e l’analisi dei big data per acquisire, rilevare e intervenire sui dati di produzione globali, determinare il rendimento e la produttività e migliorare la qualità nel suo complesso. Il tutto a favore dei margini di profitto e della quota di mercato.