Si riduce sempre più il divario tra Asic e Fpga – (FPGAs Are Poised For a Change)

Dalla rivista:
Elettronica Oggi

 
Pubblicato il 16 giugno 2009

Negli ultimi 15 anni il dibattito che ha per oggetto la possibilità che gli Fpga possano sostituire i circuiti Asic basati su celle standard non ha fatto registrare novità di rilievo. Rispetto agli Fpga, gli Asic sono caratterizzati da maggiore densità logica, velocità più elevata e costi inferiori. Il rapporto tra l’efficienza logica e le prestazioni dei due tipi di dispositivi è rimasto sostanzialmente inalterato. Nonostante ciò, il numero di progetti che prevedono il ricorso a circuiti Asic sta iniziando a declinare, mentre le vendite di Fpga sono in costante aumento, superando i tassi di crescita previsti per il comparto dei semiconduttori. Due sono gli elementi alla base di questo fenomeno: in parecchie applicazioni il ricorso a una soluzione Asic non risulta più conveniente dal punto di vista economico mentre gli Fpga hanno raggiunto livelli di densità e velocità tali da soddisfare i requisiti della maggior parte delle attuali applicazioni. Nel momento in cui si rendono disponibili tecnologie di processo sempre più avanzate, entrambi i fattori appena menzionati non potranno che favorire una penetrazione sempre maggiore delle logiche programmabili.

Questo fenomeno interessa da vicino i produttori di semiconduttori. Parecchi mercati di riferimento non hanno dimensioni tali da giustificare i sempre crescenti costi legati allo sviluppo di chip realizzati con tecnologie via via più sofisticate. In base ai risultati di un’indagine di Dataquest, nell’arco dei prossimi dieci anni il 40% dei produttori di silicio non produrrà più chip. Parecchie di queste società renderanno disponibili i loro prodotti sotto forma di blocchi IP (Intellectual Property) realizzati attraverso soluzioni programmabili, oppure usciranno direttamente di scena.

Asic e Fpga a confronto

Per parecchi anni si è discusso circa i vantaggi degli Fpga rispetto agli Asic. I primi assicurano sensibili riduzioni in termini di time to market e di costi di sviluppo, mentre i secondi si distinguono per il basso costo, la maggiore densità logica e le superiori prestazioni. Oltre a quelli menzionati, vi sono altri fattori da tenere in considerazione. Il tempo di verifica di un progetto con Fpga è più breve rispetto a quello richiesto da soluzioni Asic in quanto i progetti sviluppati con logiche programmabili possono essere collaudati in hardware. Senza dimenticare che gli Fpga consentono alle società di aggiornare i loro prodotti presenti sul campo mediante la configurazione remota dell’Fpga, il che si traduce in sensibili risparmi in termini di tempo e di costi. Per contro, la progettazione con circuiti Asic e il processo di verifica risultano di gran lunga più impegnativi: in questo caso gli errori in fase di design comportano necessariamente un re-spin, operazione costosa e che richiede tempi lunghi. In funzione delle dimensioni del progetto, la verifica concorre in misura compresa tra il 30 e il 70% al costo complessivo di progettazione con circuiti Asic (fonte Gartner-Dataquest). Dal punto di vista dei costi di realizzazione complessivi, gli Fpga risultano adatti all’uso in applicazioni dove sono previsti volumi di produzione medio/bassi, mentre gli Asic possono essere impiegati in applicazioni ad alti volumi, dove il minor costo dei dispositivi può bilanciare i maggiori costi di sviluppo.

Efficienza a livello di silicio
Il blocco base di un Fpga è l’elemento logico, dotato di una tabella di ricerca (Lut – Look up table) che emula qualsiasi funzione fino a quattro ingressi, oltre a un registro e alcuni altri circuiti specialistici. Le prove comparative effettuate hanno evidenziato che un elemento logico di solito implementa circa 12 porte logiche di un circuito Asic. Rispetto agli Fpga, Gli Asic possono garantire una maggiore efficienza a livello di silicio per l’implementazione di funzioni logiche in quanto non hanno l’onere aggiuntivo legato alla presenza della circuiteria programmabile. Verso la metà degli anni 90, i costruttori di circuiti Asic dichiaravano una capacità logica compresa tra 7.000 e 10.000 porte per mm2 per dispositivi realizzati con tecnologia di processo di 0,5 mm. Poiché ogni elemento logico di un Fpga corrisponde all’incirca a 12 porte logiche di un circuito Asic, l’efficienza raggiunta da un Fpga a quei tempi era di circa 500 porte per mm2. Questo rapporto è rimasto sostanzialmente inalterato.

Oltre a questo rapporto, comunque, vi sono altri fattori da tenere in considerazione. Gli Fpga, infatti, integrano numerose funzioni che garantiscono i medesimi livelli di efficienza, in termini di occupazione di spazio sul die, di quelle di analoghe funzioni realizzate tramite circuiti Asic. Attualmente, le Fpga di maggiori dimensioni dispongono di circa 10 Mbit di memoria embedded. I vantaggi, in termini di dimensioni, scemano visibilmente quando si confrontano i progetti che utilizzano le funzioni embedded degli Fpga. Nonostante ciò, i circuiti Asic mantengono un vantaggio, in termini di dimensioni del die, rispetto agli Fpga, che si traduce in un risparmio economico solamente nel momento in cui il confronto viene eseguito su dispositivi che utilizzano il medesimo processo. A causo del continuo incremento dei costi di sviluppo, un numero sempre minore di circuiti Asic verrà costruito sfruttando i più avanzati processi disponibili. Questo gap tecnologico, a lungo andare, contribuirà ad annullare i vantaggi che gli Asic possono vantare rispetto agli Fpga.

Aumento dei costi di sviluppo
Negli anni ’90, il continuo aumento dei costi di costruzione delle fabbriche ha mutato il volto all’industria dei semiconduttori. Un decennio prima il costo della realizzazione di una fabbrica era dell’ordine delle decine di milioni di dollari, mentre attorno al 1990 il costo era lievitato a centinaia di milioni di dollari. Ciò da un lato ha decretato il fallimento del modello di produttore di semiconduttore integrato e dall’altro ha contribuito alla nascita del modello fabless. Anche aziende di primo piano come Texas Instruments stanno passando a un modello di tipo fabless per alcuni tipi di prodotti. Al giorno d’oggi la maggior parte delle oltre 500 aziende operanti nel mondo dei semiconduttori sono di tipo fabless.

Una situazione analoga si sta verificando a livello di silicio. I costi legati allo sviluppo dei chip crescono a livello esponenziale anche se paradossalmente tale aumento non è imputabile al costo di realizzazione di nuove fabbriche. L’incremento, in parte dovuto all’aumento del costo dei wafer, è in larga misura attribuibile ai costi legati ai processi di progettazione e verifica. Gerry Worchel, analista senior di In-Stat/Mdr, ha calcolato che i costi che un’azienda deve sostenere nel passaggio dalla fase di progettazione a quella di produzione di un nuovo chip realizzato con processo da 90 nm variano da 40 a 50 milioni di dollari.

Si passa ora brevemente a considerare i fattori che giustificano un progetto da 40 milioni di dollari. Sono molto pochi i prodotti che possono vantare un mercato di destinazione di dimensioni tali da permettere l’assorbimento di un costo così elevato. Siccome le spese di ricerca e sviluppo di una società di semiconduttori ammontano a una percentuale compresa tra il 15 e il 20% del fatturato, la costruzione di un chip custom ha senso solamente nel caso i prodotti finali siano in grado di generare ricavi superiori a 200 milioni di dollari. Si prendano ora in esame le quote di mercato. In parecchi settori, una singola società detiene tipicamente una quota di mercato non superiore al 20%. Di conseguenza, il mercato di riferimento deve essere pari a circa 1 miliardo di dollari. Mercati di tali dimensioni esistono, anche se non sono così numerosi come si potrebbe pensare. La realizzazione di chip custom può avere senso se questi sono destinati ad applicazioni quali telefoni cellulari, computer, stampanti e lettori Mp3.

In ogni caso, ogni società coinvolta nella realizzazione di chip per questi mercati si troverà
comunque in un futuro più o meno lontano ad affrontare questo problema nel momento in cui i costi continueranno a salire. Nel momento in cui le società non saranno più in grado di affrontare queste spese, dovranno andare alla ricerca di alternative economiche. A questo punto l’unica via percorribile appare il ricorso a chip programmabili – ovvero logiche programmabili, processori e memorie. Tutti questi dispositivi possono essere configurati in modo da svolgere funzioni specifiche sulla base dei requisiti della particolare applicazione considerata. In futuro, un tipico sistema integrerà solamente chip programmabili, dispositivi analogici e l’indispensabile corollario di componenti passivi.

Il vantaggio del processo
Gli Fpga sono destinati ad essere utilizzati in misura sempre maggiore in applicazioni dove sono previsti elevati volumi. Questa affermazione può sembrare azzardata, in quanto è molto diffusa la percezione che gli Fpga siano dispositivi costosi. Mentre il costo di alcuni Fpga è dell’ordine di 1.000 dollari, la maggior parte di essi sono venduti a un prezzo inferiore ai 50 dollari, mentre in molti casi il costo scende a soli pochi dollari. Questo ampio ventaglio di prezzi è dovuto al fatto che gli Fpga sono strutture basate su Sram opportunamente scalate al fine di generare dispositivi di differente densità. Le dimensioni del die variano da 20 a oltre 500 mm2: questo intervallo si è mantenuto costante per parecchi anni ma, grazie all’utilizzo di processi sempre più avanzati, gli Fpga hanno guadagnato parecchio in termini di capacità e di prestazioni. Mentre al progredire delle tecnologie di processo la realizzazione di soluzioni custom è divenuta sempre più proibitiva, gli Fpga continueranno a seguire la legge di Moore.

Dal punto di vista delle fonderie, gli Fpga sono i componenti ideali per la sperimentazione di nuove tecnologie di processo. Essendo in ultima analisi strutture di memoria, gli Fpga si possono considerare alla stregua di matrici standard utili per l’identificazione dei difetti, mentre gli Fpga di maggiori dimensioni sono utili per ridurre la densità di difetti nel processo. Poiché gli Fpga sono caratterizzati dalla presenza di matrici metalliche molto dense per le operazioni di routing, sono i componenti ideali per l’identificazione e la riduzione dei difetti nel metallo. Senza dimenticare il fatto che gli Fpga utilizzano transistor contraddistinti da prestazioni particolarmente spinte, grazie ai quali è possibile individuare i ridurre eventuali difetti di questi dispositivi.

Il futuro delle logiche programmabili
Per riuscire a delineare il futuro degli Fpga è necessario capirne le origini. Mentre agli inizi gli Fpga erano una matrice formata da qualche centinaia di elementi logici impiegata per la realizzazione di semplici funzioni, oggigiorno questi componenti contengono 200.000 elementi logici, memoria embedded, blocchi Dsp dedicati, Pll, interfacce dedicate verso memorie esterne e numerosi pin di I/O che supportano più standard e transceiver per il recupero dei dati di temporizzazione.

Dalla loro introduzione, avvenuta verso la meta degli anni ’80, gli Fpga hanno compiuto progressi considerevoli. Il soft processor embedded Nios II di Altera può essere utilizzato per comprendere questa evoluzione. Nios II è un processore configurabile dove una o più istanze possono essere programmate in uno degli Fpga di Altera. Questo processore viene offerto in differenti configurazioni a seconda che l’utente intenda privilegiare la velocità o l’efficienza logica. Esso richiede all’incirca 1.500 elementi logici per il processore e i sistemi ausiliari di supporto che comprendono timer, Uart, più porte di I/O di tipo general purpose, controllore di memoria Sdram, interfacce verso memorie flash, Sram, circuiti per il livello Mac/Phy dello standard Ethernet e controllore di display Lcd.

Nel 1995 l’Fpga di maggiori dimensioni era stato realizzato con un processo di 0,5 mm e integrava circa 5.000 elementi logici. I dispositivi più economici erano quello di media densità, caratterizzati dalla presenza di 2.500 elementi logici. I prezzi si aggiravano intorno ai 150 dollari per 1.000 unità. Se a quei tempi fosse stato disponibile il processore Nios II, esso avrebbe consumato circa il 60% delle risorse logiche e il costo sarebbe risultato dell’ordine dei 90 dollari. Cinque anni più tardi gli Fpga più avanzati erano realizzati con processo da 0,18 mm, mentre il prezzo del processore Nios II a quel tempo sarebbe sceso a 35 dollari. Al giorno d’oggi, utilizzando un Fpga a basso costo realizzato con processo da 130 nm, il prezzo di riferimento per il processore Nios II è di soli 3 dollari per 1.000 unità. Tra cinque anni, gli Fpga più avanzati saranno costruiti con geometrie da 45 nm e integreranno oltre 500.000 elementi logici. Un processore Nios II utilizzerà una percentuale di risorse logiche inferiori all’1% e il suo costo per 1.000 unità sarà inferiore al dollaro.

Al giorno d’oggi gli Fpga sono i componenti che pilotano l’evoluzione dei processi e possono contare su una base installata di notevoli dimensioni, il che consente ai produttori di assorbire il crescente costo di realizzazione di dispositivi a semiconduttore con processi via via più avanzati. A causa della limitatezza dei mercati di sbocco, i costruttori di chip custom non potranno più trarre vantaggio dalla legge di Moore realizzando i loro prodotti con nodi tecnologici più avanzati. Per ragioni del tutto analoghe, i costruttori di circuiti Asic basati su celle standard devono prevedere costi Nre sempre più elevati nel momento in cui realizzano dispositivi con le tecnologie più avanzate. Ne consegue che il divario tra Asic e Fpga è destinato a ridursi sensibilmente. In un futuro non molto lontano, gli Fpga saranno in grado di garantire prestazioni, densità e strutture di costo del tutto assimilabili quelle dei circuiti Asic senza l’onere associati agli elevati costi di sviluppo di questi ultimi.

The debate over whether FPGAs will replace standard cell ASICs has not fundamentally changed over the last fifteen years. ASICs are still bigger, faster, and less expensive than FPGAs. In fact, the ratio of silicon logic efficiency and core performance between FPGAs and ASICs is still roughly unchanged. Why is it then, that ASIC design starts are declining and FPGA revenues are growing faster than the overall semiconductor industry? Two reasons: first, the economics of building standard cell ASICs no longer make sense for most applications; and second, FPGAs are big enough and fast enough to address a majority of today’s application requirements. As more advanced process technologies become available, both of these factors will only further accelerate the market shift to programmable logic.

This market shift affects semiconductor vendors as well. Many markets that semiconductor companies target are not large enough to justify the suffocating expense to develop new chips on advanced process nodes. In fact, Dataquest predicts that within ten years, 40 percent of today’s semiconductor vendors will no longer be shipping silicon. Many of the companies that leave the semiconductor space will deliver their product as intellectual property (IP) through programmable solutions, or they will cease to exist all together.

Understanding the Value Proposition of FPGAs and ASICs
For years, people have argued the benefits of FPGAs versus those of ASICs. FPGAs offer the benefits of fast time-to-market and low development costs, while ASICs have the advantage of lower device costs, higher logic density, and higher performance. However, this is not the whole story. FPGA design verification time is significantly shorter than that for ASICs because FPGA designs can be tested in hardware. Additionally, FPGAs allow companies to upgrade their products that are deployed in the field by remotely configuring the FPGA, saving time and money. Conversely, the ASIC design and verification process
is significantly more demanding: design errors on ASICs require expensive and time-consuming ASIC re-spins. Depending on design size, verification accounts for 30-70% of the total ASIC design cost, according to Gartner Dataquest. From a total-cost-of-implementation perspective, FPGAs make sense for low- to moderate-volume applications. ASICs make more sense for high-volume applications where the lower ASIC price out weighs the higher ASIC development costs.

Silicon Efficiency of FPGAs versus ASICs
As a review, the FPGA’s basic building block is the logic element. A logic element has a look-up table (LUT) that emulates any function up to four inputs plus a register and some other specialized circuitry. Benchmarks show that a logic element typically implements about 12 ASIC gates of logic.

ASICs have higher silicon efficiency than FPGAs for implementing logic because ASICs do not have the overhead of programmable circuitry. In the mid-1990s, leading ASIC vendors claimed logic capacity of 7,000 to 10,000 gates per square millimeter on 0.5-micron processes. Using the 12 gates of logic per logic element ratio, FPGAs at that time had a die-size efficiency of about 500 gates per square millimeter. This 15x to 20x ratio of silicon logic efficiency is consistent today.

Today, however, this ratio does not represent the entire story. FPGAs also have embedded functions that are nearly as die-size efficient as the same functions in ASICs. The best example is embedded memory. Currently, the largest FPGAs have close to 10 megabits of embedded memory. The ASIC die-size advantage diminishes when comparing designs that use the embedded functions in FPGAs. Despite this, ASICs still have a die-size advantage over FPGAs, which equates to a cost advantage, but only when the comparison is made for devices built on the same process. Due to the rising cost of developing chips, fewer ASICs will be built on advanced processes; however, FPGAs will continue to be built on the most advanced processes available. Eventually, this process technology gap will eliminate the advantage that ASICs have had over FPGAs.

Industry Changes Due To Rising Development Costs
In the 1990s, the rising costs of building fabs changed the semiconductor industry. Building a new fab in the 1980s cost tens of millions of dollars, but that grew to hundreds of millions of dollars in the 1990s. As a result, the vertically-integrated semiconductor model failed, and the fabless model was created. Even semiconductor giants like Texas Instruments are transitioning to a fabless model for select products. Today, all but a few of the 550 semiconductor companies are fabless.

A similar situation is happening now at the silicon level. Chip development costs continue to rise exponentially, but, ironically, this increase is not due to the higher cost of new fab development. Much has been made of the rising wafer costs for advanced processes, however, the majority of the cost increase in developing chips results from the increasing engineering costs of design and verification. While the estimated costs to build chips vary, Gerry Worchel, senior analyst at In-Stat/MDR, estimates that the cost of getting chips from design to production is between $40 million and $50 million for a 90-nm product.

Consider the demand needed to justify a $40 million project. There are very few products that have enough end-market revenue to absorb this high development cost. With research and development typically taking 15 to 20 percent of revenue, a custom chip only makes sense for end products that generate revenues in excess of $200 million. Now consider market share. In most industries, no single company controls more than 20 percent market share. This means the target market needs to be at least $1 billion. There are markets that exceed $1 billion in total sales, but not as many as one might think. Cell phones, computers, printers, and MP3 players are good examples of applications where custom chips make sense. However, even companies that sell into these markets will face this issue in the future as product development costs continue to rise.

When companies can no longer afford to build custom chips, they must look for economic alternatives. The only alternative that makes sense is programmable chips.
Programmable chips include programmable logic, processors, and memories. All of these devices can be configured to perform unique functions based on the requirement of the targeted application. In the future, it is likely that typical systems will contain only programmable chips, analog devices, and passive components.

The FPGA Process Advantage
FPGAs are poised for rapid growth for most high-volume applications. This may not seem intuitive because people perceive FPGAs as expensive. While some FPGAs do sell for over $1,000, the majority of FPGAs sell for under $50, and in many cases, for as low as a few dollars. This wide price range is primarily because FPGAs are SRAM-based structures scaled to create different density devices. Die sizes range from below 20 mm^2, where the chip is typically pad-limited, to beyond 500 mm^2, or close to the size of a postage stamp. The die-size range for FPGAs has been consistent for years, but by moving to more advanced processes, FPGAs gain more capacity and higher performance. While it is becoming cost prohibitive for companies to build custom solutions on advanced process nodes, FPGAs will continue to follow Moore’s law down the process curve.

From a foundry point of view, FPGAs are ideal devices for bringing up new process nodes. Being basically memory structures, they are standard arrays that are optimal for defect identification, and the bigger FPGAs with large die sizes are useful for reducing the process defect density. FPGAs have dense metal arrays for routing, which is optimal for identifying and reducing metal defects. They also tend to use the highest performance transistors, which helps identify and reduce transistor defects.

The Future of Programmable Logic
To understand where FPGAs are going, it first is necessary to understand where they came from. Originally, FPGAs were an array of a couple hundred logic elements used for building simple glue-logic functions. Today, FPGAs have close to 200K logic elements, embedded memory, dedicated digital signal processing (DSP) blocks, phase-locked loops (PLLs), dedicated external memory interfaces, and I/O pins that support multiple single-ended standards, differential standards and clock-data-recovery transceivers.

FPGAs have come a long way since they were introduced in the mid-1980s. A good benchmark of this progress is evident with Altera’s Nios® II embedded soft processor. The Nios II embedded soft processor is a configurable processor where one or more instances can be programmed into any of Altera’s mainstream or advanced FPGAs. Nios II processors have several configurations depending on whether the user is more concerned about speed or logic efficiency. It requires about 1,500 logic elements for the processor and the supporting subsystem which includes timers, UART, multiple general purpose I/O ports, SDRAM Memory Controller, and interfaces to external flash, SRAM, an Ethernet MAC / PHY, and LCD Display controller.

In 1995, the largest FPGA was built on a 0.5-micron process, and had approximately 5,000 logic elements. The most cost-effective devices in FPGA families are the mid-density devices, in this case, devices with around 2,500 logic elements. The price of that device was $150 for 1,000 units. If the Nios II processor had been available at the time, it would have consumed 60 percent of the mid-density device and would have had an effective cost of $90. Five years later, the most advanced FPGAs were built on 0.18-micron processes, and the effective price of the Nios II processor benchmark was $35. Today, using a low-cost FPGA built on a 130-nm process, the effective price of the Nios II processor benchmark is a mere $3 for 1,000
units. Five years from now, leading-edge FPGAs will be built on 45-nm processes and have over 500K logic elements. A Nios II embedded soft processor on these devices will use less than 1 percent of the device resources and cost well below $1 for 1,000 units.

Today, FPGAs are the lead driver for advanced processes and have a large customer base that allows FPGA vendors to absorb the ever-increasing cost of building semiconductors on advanced process nodes. Limited by market size, vendors building custom chips can no longer benefit from Moore’s Law by migrating their products to more advanced process nodes. For similar reasons, standard cell ASIC vendors are charging much higher non-recurring engineering (NRE) prices for products on advanced process nodes. As a result, the technology gap between FPGAs and ASICs will narrow dramatically. In the near future, FPGAs will offer similar performance, density, and cost structures as ASIC alternatives without the exorbitant development costs.

Steve Mensor - senior director product marketing new products Altera Corp.