AMD è una delle prime azienda realizzatrice di microprocessori su larga scala, ed è stata oggetto di dibattito tra gli appassionati di tecnologia per quasi 50 anni. La sua storia risulta spesso emozionante, piena di successi, errori folli e compromessi che hanno segnato intere ere tecnologiche. Dove altre aziende di semiconduttori sono sbocciate per poi perdersi, AMD ha resistito a molte tempeste e combattuto numerose battaglie, il tutto in sale di consiglio, tribunali e negozi.

In questo articolo rivisiteremo il passato dell’azienda, esamineremo i colpi di scena che ci hanno portati al recente presente, chiedendoci cosa farà il veterano della Silicon Valley nel prossimo futuro.

Storia di AMD: L’ascesa alla fama e alla fortuna

Per iniziare la nostra storia, dobbiamo tornare indietro e andare in America verso la fine degli anni ’50. Fiorente dopo i duri anni della seconda guerra mondiale, questo era il momento e il posto giusto se volevi sperimentare l’avanguardia dell’innovazione tecnologica.

Aziende come Bell Laboratories, Texas Instruments e Fairchild Semiconductor impiegarono i migliori ingegneri per produrre i primi transistor bipolari, il circuito integrato e il MOSFET. Questi giovani tecnici volevano ricercare e sviluppare prodotti sempre più all’avanguardia, ma nelle multinazionali la presenza di senior manager consapevoli dei tempi instabili e bui appena affrontati, impediva la sperimentazione di nuova tecnologia. La frustrazione tra gli ingegneri creava il desiderio di sganciarsi dai colossi dell’informatica e avviare progetti in solitaria.

Ingegneri Fairchild 1960 Gordon Moore
Ingegneri Fairchild, 1960 – Gordon Moore è all’estrema sinistra, Robert Noyce è in primo piano

E’ così che nel 1968, due dipendenti di Fairchild Semiconductor, Robert Noyce e Gordon Moore, lasciarono l’azienda per forgiare il loro percorso. NM Electronics ha aperto i battenti in quell’estate, per essere ribattezzata poche settimane dopo come Integrated Electronics, in breve Intel. Altri ne seguirono l’esempio e meno di un anno dopo, 8 persone lasciarono gli uffici Fairchild per fondare la propria società di progettazione e produzione elettronica: Advanced Micro Devices (AMD, naturalmente).

Il gruppo era guidato da Jerry Sanders, ex direttore del marketing di Fairchild, che con i suoi collaboratori iniziarono a ridisegnare la struttura societaria e ingegneristica della Fairchild e National Semiconductor, senza cercare di competere direttamente con aziende del calibro di Motorola e IBM. Da questi umili inizi AMD in pochi mesi ha offerto prodotti che vantavano efficienza e velocità. I primi microchip sono stati progettati per soddisfare gli standard di qualità militari statunitensi, il che si è rivelato un vantaggio considerevole nella fiorente industria dei computer, in cui l’affidabilità e la coerenza della produzione variavano notevolmente.

La prima CPU AMD Am9080
La prima CPU copiata AMD – l’Am9080. 

Quando Intel realizzo il suo primo microprocessore a 8 bit (l’8008) nel 1974, AMD era una società pubblica con un portafoglio di oltre 200 prodotti, un quarto dei quali erano propri progetti, tra cui chip RAM, contatori logici e bit shifter. L’anno seguente vide una serie di nuovi modelli: la propria famiglia di circuiti integrati Am2900 (IC) e l’Am9080 a 2 bit e 8 bit, una copia del successore dell’Intel 8008. Il primo era una raccolta di componenti che ora sono completamente integrati in CPU e GPU, ma 35 anni fa le unità logiche aritmetiche e i controller di memoria erano tutti chip separati. Il palese plagio del design di Intel potrebbe sembrare in qualche modo scioccante per gli standard odierni, ma era consuetudine a quei tempi.

Il clone della CPU alla fine è stato ribattezzato 8080A, dopo che AMD e Intel hanno firmato un accordo di licenza nel 1976. Immaginereste che questo accordo sia costato decine di milioni di dollari, ma all’epoca vennero stanziati soli $ 325.000 ($ 1,65 milioni in dollari odierni). L’accordo ha consentito ad AMD e Intel di inondare il mercato con chip redditizi per entrambi, vendendo al dettaglio a poco più di $ 350, il doppio rispetto agli accordi presi con la difesa statunitense. Il processore 8085 (3 MHz) arrivò sul mercato nel 1977 e fu presto affiancato dall’8086 (8 MHz). I miglioramenti di progettazione e produzione hanno portato alla comparsa dell’8088 (da 5 a 10 MHz) nel 1979, lo stesso anno ha visto anche l’avvio della produzione di CPU nella nuova sede di AMD di Austin, Texas.

Quando IBM iniziò a passare dai sistemi mainframe ai cosiddetti personal computer (PC) nel 1982, il gruppo decise di affidare lo sviluppo delle CPU esternamente piuttosto che sviluppare processori internamente. L’8086 di Intel, il primo processore x86 in assoluto, è stato realizzato con l’accordo esplicito di AMD di agire come una fonte secondaria, fornendo chip per PC / AT IBM. Il contratto tra AMD e Intel fu firmato nel febbraio di quell’anno, con i primi processori 8086, 8088, 80186 e 80188 che venivano realizzati non solo per IBM, ma per le tante altre aziende che proliferavano (Compaq è solo una di queste). AMD iniziò anche a produrre l’Intel 80286 a 16 bit, contrassegnato come Am286, verso la fine del 1982.

Questo doveva diventare il primo processore PC desktop davvero significativo per l’azienda e, mentre i modelli Intel in genere andavano da 6 a 10 MHz, AMD era partita da 8 MHz per arrivare ad una frequenza di 20 MHz. Ciò indubbiamente segnò l’inizio della battaglia per il dominio della CPU tra le due aziende della Silicon Valley; ciò che Intel ha progettato, AMD ha semplicemente cercato di migliorare. Questo periodo rappresentò un’enorme crescita del nascente mercato dei PC, e notando che AMD aveva offerto all’Am286 un significativo aumento di velocità rispetto all’80286, Intel tentò di fermare AMD sul nascere. Ciò è stato fatto escludendola dall’ottenere una licenza per i processori 386 di nuova generazione.

AMD naturalmente fece causa, ma l’arbitrato ha impiegato quattro anni e mezzo per essere completato, e mentre la sentenza affermo che Intel non era obbligata a trasferire tutti i nuovi prodotti ad AMD, è stato stabilito che il chipmaker più grande aveva violato un’alleanza implicita di buona fede. La negazione della licenza di Intel si è protratta durante un periodo critico, proprio mentre il mercato dei PC IBM stava aumentando dal 55% all’84%. Lasciato senza accesso alle nuove specifiche del processore, AMD ha impiegato oltre cinque anni per decodificare l’80386 nell’Am386. Una volta completato il processo, l’azienda americana si è impegnata per controbattere l’ascesa di Intel. Quando l’originale 386 debuttò con soli 12 MHz nel 1985, e successivamente riuscì a raggiungere i 33 MHz, la versione di fascia alta dell’Am386DX fu lanciata nel 1989 a 40 MHz.

cpu am486

Il successo dell’Am386 è stato seguito dal rilascio dell’Am486 a 40 MHz altamente competitivo del 1993, che offriva circa il 20% di prestazioni in più rispetto all’i486 a 33 MHz di Intel allo stesso prezzo. Questo evento doveva essere replicato su tutta la linea 486, e mentre il 486DX di Intel superava i 100 MHz, AMD offriva un’opzione più scattante a 120 MHz. Per illustrare meglio la fortuna di AMD in questo periodo, le entrate dell’azienda sono raddoppiate da poco più di $ 1 miliardo nel 1990 a ben oltre $ 2 miliardi nel 1994.

Nel 1995, AMD ha introdotto il processore Am5x86 come successore del 486, offrendolo come aggiornamento diretto per i computer più vecchi. L’Am5x86 P75 + vantava una frequenza di 150 Mhz, con prestazioni di riferimento “P75” simili al Pentium 75 di Intel. Il “+” indicava che il chip AMD era leggermente più veloce rispetto alla concorrenza. Intel ha cercato di contrastare questa situazione modificando la denominazione di alcune CPU per prendere le distanze dai prodotti del rivale. L’Am5x86 ha generato entrate significative per AMD, sia per le nuove vendite che per gli aggiornamenti da 486.

Come per gli Am286, 386 e 486, AMD ha continuato ad ampliare l’ambito di mercato offrendo i chip come soluzioni integrate. Nel marzo 1996 fu introdotto il suo primo processore, sviluppato interamente dagli stessi ingegneri di AMD: il 5k86, in seguito ribattezzato K5. Il chip è stato progettato per competere con l’Intel Pentium e Cyrix 6×86. Ci si aspettava che il chip avesse un’unità in virgola mobile molto più potente del Cyrix e circa uguale al Pentium 100, mentre la prestazione intera ha preso di mira il più prestante Pentium 200.

Alla fine, è stata un’occasione mancata, poiché il chip era perseguitato da problemi di progettazione e produzione. Ciò ha portato la CPU a non raggiungere gli obiettivi di frequenza e prestazioni, arrivando tardi sul mercato e causando scarse vendite. A quel punto, AMD aveva speso $ 857 milioni in azioni per NexGen, una piccola società di chip i cui processori sono stati realizzati da IBM. Il K5 di AMD e il K6 in via di sviluppo presentavano problemi di ridimensionamento a velocità di clock più elevate (~ 150 MHz e oltre) mentre il Nx686 di NexGen aveva già dimostrato una velocità del core di 180 MHz. Dopo l’acquisto, l’Nx686 divenne il K6 di AMD e lo sviluppo del chip originale fu abbandonato.

Il K6-2 ha introdotto 3DNow di AMD
Il K6-2 ha introdotto 3DNow di AMD

L’ascesa di AMD riflette il declino di Intel, fin dai primi inizi dell’architettura K6, che fu contrapposta al Pentium, Pentium II e al Pentium III (ampiamente rinnovato). Il K6 aumentò il successo di AMD arrivando sugli scaffali nel 1997, rappresentando una valida alternativa al Pentium MMX. Il K6 è andato sempre più forte, da una velocità di 233 MHz, a 300 MHz per la revisione “Little Foot” nel gennaio 1998, 350 MHz nel “Chomper” K6-2 del maggio 1998, e un sorprendente 550 MHz nel settembre 1998 con la revisione “Chomper Extended”. Il K6-2, sostanzialmente uguale al SSE di Intel, offriva un percorso più semplice per accedere alle funzionalità in virgola mobile della CPU; il rovescio della medaglia è che i programmatori dovevano incorporare le nuove istruzioni in qualsiasi nuovo codice, oltre a patch e compilatori che dovevano essere riscritti per utilizzare la funzione.

Come il K6 iniziale, il K6-2 rappresentava l’eccellenza rispetto alla concorrenza, spesso costando la metà dei chip Pentium di Intel. L’iterazione finale del K6: il K6-III, è stata una CPU con il conteggio dei transistor che si attesta a 21,4 milioni, in aumento rispetto agli 8,8 milioni del primo K6 e 9,4 milioni per il K6-II. Incorporava il PowerNow! Di AMD, che alterava dinamicamente le velocità di clock in base al carico di lavoro, le velocità di clock potevano raggiungere anche i 570 MHz. Il K6-III era abbastanza costoso da produrre e ebbe una durata relativamente breve, interrotta dall’arrivo del K7 che era più adatto a competere con il Pentium III e oltre.

processore K7 marchiato Athlon

Il 1999 è stato l’apice dell’età d’oro di AMD: l’arrivo del processore K7, marchiato Athlon, ne sancisce le potenzialità. A partire da 500 MHz, le CPU Athlon utilizzavano il nuovo Slot A (EV6) e un nuovo bus di sistema interno concesso in licenza da DEC che operava a 200 MHz, eclissando la variante Intel a 133 MHz offerta al momento. Nel giugno 2000 l’Athlon Thunderbird, una CPU apprezzata da molti per la sua overcloccabilità, incorporava il supporto DDR RAM e una cache on-die di livello 2 a piena velocità.

Thunderbird e i suoi successori (Palomino, Thoroughbred, Barton, e Thorton), hanno fronteggiato l’Intel Pentium 4 per i primi cinque anni del millennio, di solito a un prezzo inferiore ma sempre con prestazioni migliori. Athlon è stato aggiornato nel settembre 2003 con il K8 (nome in codice ClawHammer), meglio noto come Athlon 64, perché ha aggiunto un’estensione a 64 bit al set di istruzioni x86. Questo episodio è di solito citato come il momento decisivo di AMD. L’approccio MHz a qualunque costo dell’architettura Netburst di Intel veniva esposto come un classico esempio di vicolo cieco per lo sviluppo. Entrate e ricavi operativi sono stati entrambi eccellenti per un’azienda relativamente piccola. Pur non raggiungendo i livelli di reddito di Intel, AMD aveva pieno successo. Ma quando sei sulla cima della montagna più alta, ci vuole molto sforzo per rimanere lì.

Paradiso perduto

Non esiste un singolo evento responsabile del crollo di AMD dalla sua posizione elevata. La crisi dell’economia globale, cattiva gestione interna, scarse previsioni finanziarie, vittima del suo stesso successo, le fortune e le malefatte di Intel – tutte queste questioni hanno avuto un ruolo decisivo, in un modo o nell’altro.

Ma cominciamo a vedere come andavano le cose all’inizio del 2006. Il mercato delle CPU era pieno di offerte AMD e Intel, la prima aveva un’eccezionale serie Athlon 64 FX basata su K8. L’FX-60 era un 2,6 GHz dual-core, mentre l’FX-57 era single core che lavorava a 2,8 GHz. Entrambe le CPU erano top di gamma, ma estremamente costose, con la vendita al dettaglio di un FX-60 che superava i $ 1.000. Questo avveniva anche sul versante Intel, il Pentium Extreme Edition 955 da 3,46 GHz ne era una dimostrazione. AMD sembrava avere il sopravvento anche nel mercato delle workstation / server, con i chip Opteron che superavano i processori Intel Xeon.

Il problema per Intel era l’architettura Netburst: la struttura richiedeva velocità di clock molto elevate per essere competitiva, il che a sua volta aumentava il consumo di energia e la produzione di calore. Il design aveva raggiunto i suoi limiti e non era più all’altezza, quindi Intel ha abbandonato lo sviluppo e si è rivolta alla loro vecchia architettura CPU Pentium Pro / Pentium M per costruire il successore del Pentium 4.

intel core 2 duo
intel core 2 duo

L’iniziativa ha prodotto il design Yonah per piattaforme mobili e poi l’architettura Conroe dual-core per desktop, nell’agosto 2006. Tale era il bisogno di Intel di salvare la faccia che iniziarono a inserire il nome Pentium in modelli budget di fascia bassa, integrando la nomenclatura Core sui modelli top (13 anni di dominio del marchio spazzati via in un istante). Il passaggio a un design chip a basso consumo e ad alto rendimento si è rivelato ideale per una moltitudine di mercati in evoluzione; quasi da un giorno all’altro, Intel ha conquistato lo scettro delle prestazioni nei settori principali e tra gli appassionati.

Tre giorni prima che Intel lanciasse il Core 2 Duo, AMD rese pubblica una mossa approvata dall’allora CEO Hector Ruiz. Il 24 luglio 2006, AMD ha annunciato l’intenzione di acquisire il produttore di schede grafiche ATI Technologies, in un accordo del valore di $ 5,4 miliardi (che comprende $ 4,3 miliardi in contanti e prestiti e $ 1,1 miliardi raccolti da 58 milioni di azioni). L’accordo era un’enorme scommessa finanziaria, che rappresentava il 50% della capitalizzazione di mercato di AMD al momento, anche se l’acquisto aveva senso il prezzo assolutamente no.

Imageon, la divisione grafica palmare di ATI, è stata poi venduta a Qualcomm in un misero affare da 65 milioni di dollari. Quella divisione è ora chiamata Adreno, un anagramma di “Radeon” e un componente integrale del SoC Snapdragon. L’ATI è stata gravemente sopravvalutata, in quanto non era in grado di ottenere grosse entrate finanziarie. Anche ATI non aveva siti produttivi: il suo valore era quasi interamente basato sulla proprietà intellettuale. AMD ha infine riconosciuto questo errore quando ha assorbito svalutazioni per $ 2,65 miliardi a causa della sopravvalutazione della valutazione dell’avviamento di ATI.

Oltre a bruciare denaro, l’eventuale risposta di AMD all’architettura rinnovata di Intel è stata decisamente deludente. Due settimane dopo l’uscita di Core 2, il presidente e COO di AMD, Dirk Meyer, ha annunciato la finalizzazione del nuovo processore K10. Questa sarebbe stata la mossa decisiva nel mercato dei server, poiché si trattava di una CPU quad core a pieno titolo, mentre all’epoca Intel produceva solo chip Xeon dual core.

Il nuovo chip Opteron è apparso nel settembre 2007, con molta fanfara, ma invece di rubare il trono a Intel, il progetto si è fermato ufficialmente con la scoperta di un bug che in rare circostanze potrebbe comportare blocchi quando si verificano scritture di cache nidificate. Raro o no, il bug TLB ha posto fine alla produzione del K10 di AMD; nel frattempo, una patch del BIOS che ha risolto il problema sui processori in uscita, portava comunque ad una perdita di circa il 10% delle prestazioni. Al momento della consegna delle CPU revisionate “B3 stepping” 6 mesi dopo, il danno era stato arrecato sia per le vendite che per la reputazione.

Un anno dopo, verso la fine del 2007, AMD ha lanciato il design quad-core K10 sul mercato desktop. A quel punto, Intel stava avanzando e aveva rilasciato l’ormai famoso Core 2 Quad Q6600. Sulla carta, il K10 aveva un design superiore: tutti e quattro i nuclei erano nello stesso stampo, a differenza del Q6600 che utilizzava due stampi separati sullo stesso pacchetto. Tuttavia, AMD stava lottando per raggiungere le velocità di clock previste e la migliore versione della nuova CPU raggiungeva solo i 2,3 GHz, più lento sebbene di 100 MHz rispetto al Q6600.

phenom 64 9500

Ma l’aspetto più sconcertante di tutto ciò è stata la decisione di AMD di presentare un nuovo nome al modello: Phenom. Intel è passata a Core perché Pentium era diventato sinonimo di prezzo elevato e prestazioni relativamente scarse. D’altra parte, Athlon era un nome che gli appassionati di informatica conoscevano fin troppo bene e che aveva la possibilità di eguagliare la sua reputazione. La prima versione di Phenom non era male, ma non altrettanto buona rispetto al Core 2 Quad Q6600, un prodotto già prontamente disponibile sul mercato.

Stranamente, AMD non si sforzava minimamente sul campo pubblicitario, avendo poca presenza sul lato software dell’azienda, un modo molto curioso di gestire un business. Ma nessuna rivisitazione storica di AMD sarebbe completa senza prendere in considerazione le azioni anticoncorrenziali di Intel. A questo punto, AMD non stava solo combattendo contro i chip Intel, ma anche contro le attività monopolistiche dell’azienda rivale, che includevano il pagamento agli OEM di ingenti somme di denaro per estromettere le CPU AMD dai nuovi computer.

Nel primo trimestre del 2007, Intel ha pagato Dell 723 milioni di dollari per rimanere l’unico fornitore dei suoi processori e chipset, pari al 76% del reddito operativo totale dell’azienda di $ 949 milioni.

A differenza di AMD, Intel aveva una rigida impostazione degli obiettivi a lungo termine, oltre a una maggiore diversità di prodotti e IP. Avevano anche riserve di cassa come nessun altro produttore di chip al mondo: entro la fine del primo decennio del nuovo millennio, Intel stava guadagnando oltre $ 40 miliardi di entrate. Ciò ha fornito un’enorme budget per il marketing, la ricerca e lo sviluppo di software, nonché fabbriche personalizzate in modo univoco per i propri prodotti. D’altro canto AMD aveva un pagamento in eccesso di svariati miliardi di dollari per ATI e gli interessi sul prestito, un deludente successore del K8 e chip problematici che arrivavano tardi sul mercato, tutte pillole amare da inghiottire. Ma le cose stavano per peggiorare.

Un passo avanti, uno laterale

Entro il 2010, l’economia globale stava lottando per uscire dalla crisi finanziaria del 2008. AMD aveva eliminato la sua sezione di memoria flash alcuni anni prima, insieme a tutte le fabbriche di chip (alla fine sono diventati GlobalFoundries). Circa il 10% della sua forza lavoro era stata abbandonata; grazie ai risparmi e all’iniezione di denaro da parte degli azionisti, AMD si concentro interamente sulla progettazione del processore.

Invece di migliorare il design del K10, ricominciò con una nuova struttura e verso la fine del 2011 è stata lanciata l’architettura Bulldozer. Laddove K8 e K10 erano veri processori multicore, multithread simultanei (SMT), il nuovo layout era classificato come “multithreading cluster”. AMD ha adottato un approccio condiviso e modulare con Bulldozer: ogni cluster (o modulo) conteneva due core interi, ma non erano totalmente indipendenti. Condividevano l’istruzione L1 e le cache di dati L2, il recupero / decodifica e l’unità in virgola mobile. AMD arrivò persino a lasciare il nome Phenom e tornare ai giorni di gloria dell’Athlon FX, semplicemente nominando le prime CPU Bulldozer come AMD FX.

Design a quattro moduli di Bulldozer cpu
Design a quattro moduli di Bulldozer

L’idea alla base di tutte queste modifiche era quella di ridurre le dimensioni complessive dei chip e renderli più efficienti dal punto di vista energetico. Gli stampi più piccoli migliorerebbero i rendimenti di fabbricazione, portando a margini migliori e l’aumento dell’efficienza contribuirebbe ad aumentare le velocità di clock. Il design scalabile lo renderebbe adatto anche per una più ampia gamma di mercati.

Il modello lanciato nell’ottobre 2011, FX-8510, presentava 4 cluster ma era commercializzato come CPU a 8 core e 8 thread. A quell’epoca, i processori avevano più velocità di clock e la frequenza di base dell’FX-8150 era di 3,6 GHz, con un turbo clock di 4,2 GHz. Tuttavia, il chip aveva una dimensione di 315 mm quadrati e un consumo energetico di picco di oltre 125 W. Intel aveva già rilasciato il Core i7-2600K: una tradizionale CPU a 4 core e 8 thread, che lavorava fino a 3,8 GHz. Significativamente più piccolo del nuovo chip AMD, a 216 mm quadrati, e consumava 30 W in meno di potenza.

Sulla carta, il nuovo FX avrebbe dovuto dominare, ma le sue prestazioni erano alquanto deludenti: a volte, la capacità di gestire molti thread brillava in efficienza, ma le prestazioni a thread singolo spesso non erano migliori della gamma Phenom che doveva sostituire, nonostante le velocità di clock superiori. Avendo investito milioni di dollari nella ricerca e sviluppo di Bulldozer, AMD non avrebbe certamente abbandonato il progetto e l’acquisto di ATI stava iniziando a dare i suoi frutti.

Nel decennio precedente, la prima incursione di AMD in un pacchetto combinato CPU e GPU, chiamato Fusion, era in ritardo sul mercato e molto deludente. Ma il progetto ha fornito ad AMD i mezzi con cui affrontare altri mercati. All’inizio del 2011 venne rilasciata un’altra nuova architettura, chiamata Bobcat. Rivolto ad applicazioni a bassa potenza, come sistemi embedded, tablet e notebook; era anche il design opposto al Bulldozer. Bobcat ha ricevuto un aggiornamento nell’architettura Jaguar, ed è stato selezionato da Microsoft e Sony per alimentare l’Xbox One e PlayStation 4 nel 2013.

Sebbene i margini di profitto siano relativamente ridotti in quanto le console sono generalmente costruite al prezzo più basso possibile, entrambe le piattaforme sono state vendute a milioni e questo ha evidenziato la capacità di AMD di creare SoC personalizzati. AMD ha continuato a rivedere il design di Bulldozer nel corso degli anni: Piledriver è arrivato per primo e ci ha dato l’FX-9550 (una mostruosità da 220 W, 5 GHz), ma Steamroller e la versione finale Excavator, erano più concentrati sulla riduzione del consumo energetico, piuttosto che offrire qualcosa di particolarmente nuovo. A quel punto, la struttura dei nomi per le CPU era diventata a dir poco confusa. Phenom è stato a lungo relegato ai libri di storia e FX aveva una reputazione piuttosto scarsa. AMD ha abbandonato tale nomenclatura etichettando i loro processori per desktop come la serie A.

La prima apparizione di Graphics Core Next la Radeon HD 7970
La prima apparizione di Graphics Core Next: la Radeon HD 7970

La sezione grafica dell’azienda, mettendo in campo i prodotti Radeon, aveva avuto fortune analogamente miste. AMD ha mantenuto il marchio ATI fino al 2010. Hanno anche riscritto completamente l’architettura GPU creata da ATI alla fine del 2011, con il rilascio di Graphics Core Next (GCN). Questo progetto sarebbe durato per quasi 8 anni, trovandosi in console, PC desktop, workstation e server; è ancora in uso oggi come GPU integrata nei cosiddetti processori APU di AMD.

I processori GCN sono cresciuti con prestazioni di elaborazione immense, ma la struttura non è stata la più semplice. La versione più potente mai creata da AMD, la GPU Vega 20 nella Radeon VII, vantava 13,4 TFLOP di potenza di elaborazione e 1024 GB / s di larghezza di banda – ma nei giochi non riusciva a raggiungere le stesse prestazioni delle migliori periferiche Nvidia.

I prodotti Radeon spesso hanno la reputazione di avere alte temperature, rumorosità e consumi elevati. GCN, che alimentava l’HD 7970, richiedeva ben oltre 200 W di potenza a pieno carico, ma era prodotta con un processo produttivo a 28 nm di TSMC. Quando GCN raggiunse la piena maturità, sotto forma di Vega 10, i chip erano prodotti da GlobalFoundries con processo a 14 nm, ma i requisiti energetici non erano migliorati, con la Radeon RX Vega 64 che consumava quasi 300 W a pieno carico.

Sebbene AMD avesse una buona selezione di prodotti, non raggiungevano lo standard sperato.

Anno finanziarioEntrate ($ miliardo)Margine lordoReddito operativo ($ milioni)Utile netto ($ milioni)
20164.2723%-372-497
20154.0027%-481-660
20145.5133%-155-403
20135.3037%103-83
20125.4223%-1060-1180
20116.5745%368491

Alla fine del 2016, il bilancio della società era in perdita da 4 anni consecutivi. Il debito era ancora elevato, anche con la vendita delle sue fabbriche e di altre filiali, e nemmeno il successo del pacchetto Xbox e PlayStation forniva abbastanza ossigeno. A prima vista, AMD sembrava essere in guai seri.

L’arrivo di Ryze

Con nulla da vendere e nessun segno di grandi investimenti in arrivo, AMD poteva fare solo una cosa: ristrutturare l’azienda. Nel 2012, l’azienda assunse due persone che avrebbero svolto ruoli vitali nel rilancio della società.

Jim Keller, ex ingegnere capo della gamma K8 (tornato dopo un’assenza di 13 anni), iniziò a dirigere due progetti: uno sul design basato su ARM per i mercati server, l’altro un’architettura x86 standard, con Mike Clark (lead progettista di Bulldozer) come capo ingegnere. Ad unirsi ai due arrivò Lisa Su, ex vicepresidente senior e Direttore generale di Freescale Semiconductors. Assunse la stessa posizione in AMD, come responsabile del passaggio dell’azienda nei mercati console.

Lisa Su (al centro) e Jim Keller (all'estrema destra)
Lisa Su (al centro) e Jim Keller (all’estrema destra)

Due anni dopo il restauro di Keller nella sezione R&D di AMD, il CEO Rory Read si dimise. Con un dottorato in ingegneria elettronica presso il MIT e aver condotto ricerche sui MOSFET SOI ( silicio su isolante ), Lisa Su aveva il background accademico e l’esperienza industriale necessaria per riportare AMD ai suoi giorni di gloria. Ma nulla accade in pochi mesi nel mondo dei processori: i progetti dei chip richiedono diversi anni prima che siano pronti per il mercato. AMD avrebbe dovuto cavalcare la tempesta fino a quando i progetti non fossero pronti per essere realizzati.

Mentre AMD ha continuato a lottare, Intel si è sempre più rafforzata. I processi produttivi e la fabbricazione dei Core sono maturati e alla fine del 2016 hanno registrato un fatturato di quasi $ 60 miliardi. Per diversi anni, Intel ha seguito un approccio ” tick-tock ” allo sviluppo del processore: ” tick ” sarebbe la nuova architettura, mentre ” tock ” è il perfezionamento del processo, in genere sotto forma di un processo produttivo più piccolo.

Tuttavia al destino, come sappiamo, non manca il senso dell’ironia, nonostante gli enormi profitti e il dominio quasi totale sul mercato, nel 2012 Intel prevedeva di rilasciare CPU su un processo a 10nm entro 3 anni. Quella particolare prospettiva non si è mai realizzata. La prima CPU a 14 nm, utilizzando l’architettura Broadwell, è apparsa solo nel 2015 e il processo fondamentale è rimasto il medesimo per mezzo decennio. Gli ingegneri hanno ripetutamente riscontrato problemi di rendimento con i 10nm, costringendo Intel a perfezionare il processo e l’architettura più vecchia ogni anno. Le velocità di clock e il consumo di energia sono aumentati sempre più, ma non sono stati previsti nuovi progetti. Agli utenti PC sono rimaste scelte frustranti: scegliere una CPU della linea Core, ma pagare un prezzo elevato o passare all’economica serie FX per avere prestazioni non allettanti.

Ma AMD stava costruendo tranquillamente un mazzo di carte vincente e ha giocato la sua mano nel febbraio 2016, all’evento E3. Utilizzando il tanto atteso reboot di Doom, l’architettura Zen completamente nuova è stata rivelata al pubblico. Molto poco fu detto sul nuovo design oltre a frasi come “multithreading simultaneo”, “cache ad alta larghezza di banda” e “progettazione finFET ad alta efficienza energetica”. Ulteriori dettagli arrivarono durante il Computex 2016, incluso un obiettivo di miglioramento del 40% rispetto all’architettura precedente. Alla luce del fatto che AMD aveva prodotto aumenti modesti del 10% con ogni revisione del progetto Bulldozer, era impensabile che l’azienda fosse riuscita a rinnovarsi così velocemente ed efficientemente.

Ci sarebbero voluti altri 12 mesi prima che il chip apparisse effettivamente, ma quando lo fece, il piano a lunga durata di AMD fu finalmente chiaro. Qualsiasi nuovo design hardware ha bisogno del software giusto per venderlo, ma le CPU multi-thread stavano affrontando una battaglia in salita. Nonostante le console avevano già CPU 8-core, la maggior parte dei giochi erano ancora ottimizzati per sfruttare appena 4. I motivi principali sono stati la posizione dominante sul mercato di Intel e la progettazione di chip AMD nelle Xbox One e PlayStation 4.

Il problema con i processori delle console era che il layout della CPU consisteva in due CPU a 4 core nello stesso die, con un’elevata latenza tra le due sezioni del chip. Quindi gli sviluppatori di giochi tendevano a mantenere i thread del motore grafico situati in una delle sezioni e ad utilizzare l’altra solo per processi generali di background. Solo nel mondo delle workstation e dei server c’era la necessità di CPU multi-thread, fino a quando AMD non decise diversamente. Nel marzo 2017, gli utenti desktop potevano aggiornare i propri sistemi con una delle due CPU a 8 core e 16 thread dell’azienda americana. Un’architettura completamente nuova meritava chiaramente un nuovo nome e AMD ha escluso Phenom ed FX, per decretare Ryzen.

Nessuna delle CPU commercializzate era particolarmente economica: il 3,6 GHz (boost di 4 GHz) Ryzen 7 1800X era in vendita a $ 500, con il più lento 1700X a 2 GHz che costava meno di $ 100. Questa scelta fu presa in parte perché AMD desiderava fermare la percezione di essere la scelta più economica, ma principalmente perché Intel in quella fascia vendeva il suo 8 core i7-6900K a $ 1.000.

grafico cpu amd

Zen ha preso il meglio da tutti i progetti precedenti e li ha fusi in una struttura che si concentrava sul mantenere le pipeline il più occupate possibile; e per fare ciò, ha richiesto significativi miglioramenti ai sistemi di cache. Il nuovo design ha abbandonato la condivisione delle cache L1 / L2, utilizzata in Bulldozer, e ogni core era ora completamente indipendente, con più pipeline e una maggiore larghezza di banda della cache. L’unica cosa che mancava era una GPU. Il die è stato sezionato in due complessi CPU (CCX), ognuno dei quali disponeva di 4 core, 8 thread. La CPU offriva controller e collegamenti per PCI Express, SATA e USB. Ciò significava che le schede madri, in teoria, potevano essere realizzate senza un SB, ma quasi tutti lo facevano, solo per espandere il numero di possibili connessioni del dispositivo.

Il 1800X e il 1700X non erano perfetti: ottimi come qualsiasi altro processore Intel per le applicazioni professionali, ma più lenti nei giochi. AMD aveva altre carte da giocare: un mese dopo che le prime CPU Ryzen arrivarono sul mercato, arrivarono i modelli Ryzen 5 a 6 e 4 core; due mesi dopo sbarcarono i chip Ryzen 3 a 4 core. Si confrontarono contro le offerte di Intel allo stesso modo dei loro fratelli maggiori, ma erano significativamente più convenienti. E poi vennero calati ​​gli assi: il Ryzen Threadripper 1950X a 16 core e 32 thread (con un prezzo richiesto di $ 1.000) e il processore EPYC a 32 core e 64 thread per server. Questi colossi comprendevano due e quattro chip Ryzen 7 1800X nello stesso pacchetto, utilizzando il nuovo sistema di interconnessione Infinity Fabric per spostare i dati tra i chip.

AMD Ryder Threadripper di seconda generazione 13 agosto

Nel giro di sei mesi, AMD ha dimostrato che stavano prendendo di mira in modo efficace ogni mercato desktop x86 possibile, con un unico design per tutti i processori. Un anno dopo, l’architettura è stata aggiornata a Zen +, che consisteva in modifiche nel sistema cache e nel passaggio dal venerabile processo 14LPP di GlobalFoundries a un sistema 12LP aggiornato e più denso. La CPU è rimasta della stessa dimensione, ma il nuovo metodo di fabbricazione ha permesso ai processori di funzionare a velocità di clock più elevate.

Altri 12 mesi, nell’estate del 2019, AMD ha lanciato Zen 2. Questa volta i cambiamenti sono stati più significativi e il termine chiplet è diventato di gran moda. Piuttosto che seguire una costruzione monolitica, in cui ogni parte della CPU è nello stesso pezzo di silicio, gli ingegneri si sono separati nei Core Complex dal sistema di interconnessione. I primi sono stati costruiti da TSMC, usando il loro processo N7, da qui il nome Core Complex Die (CCD). La struttura di input / output è stata realizzata da GlobalFoundries, con modelli Ryzen desktop che utilizzano un chip 12LP e Threadripper ed EPYC che sfoggiano versioni più grandi da 14 nm.

Immagini a infrarossi di una Zen 2 Ryzen ed EPYC. I chiplet CCD sono chiaramente separati dal chip I / O
Immagini a infrarossi di una Zen 2 Ryzen ed EPYC. I chiplet CCD sono chiaramente separati dal chip I / O

Il design del chiplet verrà mantenuto e perfezionato per Zen 3, attualmente in fase di rilascio alla fine del 2020. Non è probabile che i CCD modifichino il layout a 8 core e 16 thread di Zen 2, probabilmente si tratterà di un miglioramento simile a quello visto con Zen + (ovvero cache, efficienza energetica e miglioramenti della velocità di clock).

Vale la pena fare un bilancio con ciò che AMD ha realizzato con Zen. Nell’arco di 8 anni, l’architettura è passata da un foglio di carta bianco a un portafoglio completo di prodotti, contenente offerte economiche a 4 core e 8 thread da € 99 fino a CPU server da € 4000 con 64 core e 128 thread. Anche le finanze di AMD sono cambiate radicalmente: da perdite e debiti che arrivano a miliardi, AMD è ora sulla buona strada per compensare i suoi prestiti e registrare un reddito operativo superiore a $ 600 milioni, entro il prossimo anno. Sebbene Zen non sia l’unico fattore nel risveglio finanziario dell’azienda, ha aiutato enormemente.

La divisione grafica di AMD ha visto simili cambiamenti: nel 2015 la sezione ha ottenuto la piena indipendenza, in quanto Radeon Technologies Group (RTG). Lo sviluppo più significativo dei loro ingegneri è arrivato sotto forma di RDNA, una rielaborazione di GCN. Le modifiche alla struttura della cache, insieme alle dimensioni e al raggruppamento delle unità di calcolo, hanno spostato il focus dell’architettura direttamente sui giochi.

I primi modelli che utilizzano questa nuova architettura, come la serie Radeon RX 5700, hanno dimostrato il serio potenziale del design. Questo passaggio lo vedremo in Microsoft e Sony, poiché entrambe hanno scelto Zen 2 e RDNA 2 per le nuove console: Xbox Serie X e PlayStation 5. AMD è tornata ai giorni dell’Athlon 64 in termini di sviluppo dell’architettura e innovazione tecnologica. Sebbene il Gruppo Radeon non abbia goduto dello stesso livello di successo della divisione CPU, e le loro schede grafiche sono forse ancora considerate come “l’opzione economica”, siamo sicuri che la rivalsa sul campo grafico non tarderà ad arrivare.

Guardare avanti con cautela

È perfettamente sensato fare una semplice domanda su AMD: potrebbero tornare ai giorni bui di inizio anni 2000?

Anche se il 2020 si è rivelato un anno eccellente per AMD e i risultati finanziari positivi del primo trimestre mostrano un miglioramento del 40% rispetto all’anno precedente, $ 9,4 miliardi di ricavi li mettono ancora dietro Nvidia ($ 10,7 miliardi nel 2019) e anni luce da Intel ($ 72 miliardi ). Quest’ultimo ha un portafoglio di prodotti molto più ampio, ovviamente, ma le entrate di Nvidia dipendono quasi interamente dalle schede grafiche.

AMD abbassa i prezzi delle RX 5700
Prezzi delle RX 5700

È chiaro che sia le entrate che i ricavi operativi devono crescere, al fine di stabilizzare completamente il futuro di AMD – quindi come si può ottenere questo risultato? La maggior parte delle loro entrate proviene da quello che chiamano il segmento Informatica e Grafica, ovvero le vendite di Ryzen e Radeon. Ciò continuerà senza dubbio a migliorare, poiché Ryzen è molto competitivo e l’architettura RDNA 2 fornirà una piattaforma comune per i giochi che funzionano anche su PC come su console di prossima generazione.

Le ultime CPU desktop Intel detengono un vantaggio sempre crescente nei giochi. Manca anche l’ampiezza delle funzionalità che Zen 3 offrirà. Nvidia detiene la corona delle prestazioni su GPU, ma deve affrontare una forte concorrenza nel settore di fascia media Radeon. Forse non è altro che una coincidenza, ma anche se RTG è una divisione completamente indipendente di AMD, i suoi ricavi e le sue entrate operative sono raggruppati con il settore della CPU – questo suggerisce che le loro schede grafiche, sebbene popolari, non vendono nelle stesse quantità come fanno i prodotti Ryzen.

Forse un problema più urgente per AMD è che il segmento Enterprise, Embedded e Semi-Custom, che ha rappresentato poco meno del 20% delle entrate del primo trimestre 2020, raggiungendo una perdita operativa. Ciò può essere spiegato dal fatto che le vendite attuali di Xbox e PlayStation sono stagnanti, alla luce del successo di Nintendo Switch e delle nuove imminenti console Microsoft e Sony. Intel ha completamente dominato il mercato aziendale e nessuno che gestisce un datacenter da molti milioni di dollari passerà nel breve periodo ad AMD, solo perché è disponibile una nuova straordinaria CPU.

Ma questo potrebbe cambiare nei prossimi due anni, in parte attraverso le nuove console da gioco, ma anche da un’alleanza inaspettata. Nvidia, tra tutte le aziende, ha scelto AMD rispetto a Intel per realizzare le proprie CPU per i nuovi cluster di deep learning / AI, il DGX 100. Il motivo è semplice: il processore EPYC ha più core, canali di memoria e corsie PCI Express più veloci di qualsiasi cosa Intel abbia da offrire.

Se Nvidia è felice di utilizzare i prodotti AMD, altri ne seguiranno sicuramente l’esempio. AMD dovrà continuare a scalare una montagna ripida, ma oggi sembra che abbiano gli strumenti giusti per il lavoro. Poiché TSMC continua a modificare e perfezionare il suo processo N7, anche tutti i chip AMD saranno migliori.

crescita finanziaria di amd

Guardando al futuro, ci sono alcune aree all’interno di AMD che potrebbero avanzare enormemente, una di queste è il marketing. La frase “Intel Inside” e il jingle sono onnipresenti da oltre 30 anni e anche se AMD inizia a promuovere Ryzen, alla fine hanno bisogno di produttori come Dell, HP e Lenovo per vendere unità con i loro processori, come ha sempre fatto Intel. Dal punto di vista software, è stato già fatto molto sulle applicazioni che migliorano l’esperienza degli utenti, come Ryzen Master, ma di recente i driver Radeon hanno avuto problemi diffusi. I driver possono essere estremamente complessi, ma la loro qualità può creare o distruggere la reputazione di un componente hardware.

AMD è attualmente nella posizione più forte che abbia mai visto nei suoi 51 anni di storia. Con l’ambizioso progetto Zen che non mostra segni di limiti, la rinascita fenomenale dell’azienda ha avuto un enorme successo. Tuttavia non sono in cima alla montagna, e forse questo è anche un bene. Si dice che la storia si ripete sempre, ma speriamo che ciò non accada. Un AMD sano e competitivo, pienamente in grado di competere contro Intel e Nvidia, porta solo vantaggi agli utenti.