Con la tecnologia che avanza rapidamente intorno a noi, a volte idee sbagliate possono farsi strada nella nostra mente. In questo articolo faremo un passo indietro ed esamineremo alcuni concetti comuni sull’hardware PC completamente errati. Per ognuno, elencheremo l’errore e il motivo per cui si sbaglia.

# 1 Possiamo confrontare le CPU in base al numero di core e alla velocità di clock

Se siete persone informate di tecnologia, ad un certo punto potreste aver sentito qualcuno fare il seguente confronto: “La CPU A ha 4 core e funziona a 4 GHz. La CPU B ha 6 core e funziona a 3 GHz. 4 * 4 = 16 è minore di 6 * 3 = 18, la CPU B deve essere migliore”. Questo è uno degli errori principali che si commette parlando di CPU. Ci sono così tante variabili e parametri che rende impossibile confrontare le CPU in questo modo.

Preso da solo e a parità di condizioni, un processore con 6 core sarà più veloce dello stesso design con 4 core. Allo stesso modo, un processore che funziona a 4 GHz sarà più veloce dello stesso chip che lavora a 3 GHz. Tuttavia, una volta che iniziamo a considerare la complessità dei chip reali, il confronto diventa privo di significato.

cpu la cache di livello 3 multicore

Ci sono carichi di lavoro che preferiscono una frequenza maggiore e altri che traggono vantaggio da più core. Una CPU può avere più cache dell’altra o una pipeline più ottimizzata. L’elenco dei tratti che nel confronto originale mancano è infinito. Non confrontate mai le CPU in questo modo.

# 2 La velocità di clock è l’indicatore più importante nelle prestazioni

Partendo dal primo malinteso, è importante capire che la velocità di clock non è tutto. Due CPU della stessa fascia di prezzo in esecuzione alla stessa frequenza possono avere prestazioni molto diverse.

Certamente la velocità di base ha un impatto impostante, ma una volta raggiunto un certo punto, ci sono altri fattori che giocano un ruolo molto più importante. Le CPU possono passare molto tempo ad aspettare altre parti del sistema, quindi la dimensione della cache e l’architettura sono estremamente importanti. Ciò può ridurre il tempo sprecato e aumentare le prestazioni del processore.

Anche architettura del sistema può svolgere un ruolo enorme. È del tutto possibile che una CPU lenta possa elaborare più dati di una veloce se la sua architettura interna è meglio ottimizzata. Semmai, le prestazioni per watt stanno diventando il fattore dominante utilizzato per quantificare le prestazioni nei benchmark più recenti.

# 3 Il chip principale che alimenta il PC è la CPU

Questo è un concetto che era assolutamente veritiero fino a qualche tempo fa, ma sta diventando sempre meno esaudiente oggi giorno. Tendiamo a raggruppare molte funzionalità nella frase “CPU” o “processore” quando in realtà questa è solo una parte di un quadro più ampio. La tendenza attuale, nota come elaborazione eterogenea, prevede la combinazione di molti elementi di elaborazione in un unico chip.

soc cpu piattaforma

In generale, i chip sulla maggior parte dei desktop e notebook sono CPU, per quasi tutti gli altri dispositivi elettronici, tuttavia, è più che probabile che stiate guardando un sistema su un chip (SoC). Una scheda madre per PC desktop può permettersi lo spazio per distribuire dozzine di chip, ognuno dei quali serve una funzionalità specifica, ma ciò non è possibile sulla maggior parte delle altre piattaforme. Le aziende cercano di riunire quante più funzionalità possibili su un singolo chip per ottenere migliori prestazioni ed efficienza energetica.

Oltre a una CPU, il SoC del telefono probabilmente ha anche una GPU, RAM, codificatori / decodificatori multimediali, rete, gestione dell’alimentazione e dozzine di altre parti. Anche se possiamo considerarlo un processore in senso generale, la CPU effettiva è solo uno dei tanti componenti che compongono un SoC moderno.

# 4 Il processo produttivo non sempre é utile per confrontare i chip

Recentemente c’è stato molto scalpore sul ritardo di Intel nel lancio del prossimo processo produttivo. Quando un produttore di chip come Intel o AMD progetta un chip, verrà prodotto utilizzando un processo tecnologico specifico. La metrica più comune utilizzata è la dimensione dei minuscoli transistor che compongono il chip.

Questa misurazione viene eseguita in nanometri: 14 nm, 10 nm, 7 nm e 3 nm. Il concetto espresso nel titolo avrebbe senso se gli ingegneri fossero in grado di adattare due transistor su un processo a 7 nm della stessa dimensione di un transistor su un processo a 14 nm, ma questo non è sempre vero. C’è molto altro, quindi il numero di transistor e la potenza di elaborazione non scala con le dimensioni della tecnologia.

processo produttivo confrontare i chip

Un altro concetto da sfatare è che non esiste un sistema standardizzato per misurare in maniera omogenea il processo produttivo. Tutte le principali società prima misuravano i transistor allo stesso modo, ma ora si sono discostate e ciascuna misura in modo leggermente diverso. Questo per dire che la dimensione di un chip non dovrebbe essere una metrica principale quando si fa un confronto.

# 5 E’ giusto confrontare i core della GPU di diverse aziende

Quando si confrontano le CPU con le GPU, la differenza maggiore è nel numero di core che possiedono. Le CPU hanno pochi core molto potenti, mentre le GPU hanno centinaia o migliaia di core meno potenti. Ciò consente loro di elaborare più lavoro in parallelo.

Proprio come una CPU quad core di un’azienda può avere prestazioni molto diverse rispetto a quella di un’altra azienda, lo stesso vale per le GPU. Non esiste un buon modo per confrontare i conteggi dei core della GPU tra diversi fornitori. Ogni produttore avrà un’architettura molto diversa che rende questo tipo di metrica quasi privo di significato.

Ad esempio, un’azienda può scegliere meno core ma aggiungere più funzionalità, mentre un’altra potrebbe preferire più core ciascuna con funzionalità ridotte. Tuttavia, come per le CPU, un confronto tra GPU dello stesso fornitore e della stessa famiglia di prodotti è perfettamente valido.

# 6 Il confronto dei FLOPS è un modo utile per valutare le prestazioni

Quando viene lanciato un nuovo chip o supercomputer ad alte prestazioni, una delle prime cose pubblicizzate è il numero di FLOPS che può produrre. L’acronimo sta per operazioni in virgola mobile al secondo e misura quante istruzioni possono essere eseguite da un sistema.

Questo sembra abbastanza semplice, ma ovviamente i venditori possono giocare con i numeri per far sembrare il loro prodotto più veloce di quello che è. Ad esempio, calcolare 1.0 + 1.0 è molto più semplice che calcolare 1234.5678 + 8765.4321. Le aziende possono fare confusione con il tipo di calcoli e la precisione associata per aumentare i loro numeri.

FLOPs misura anche solo le prestazioni di calcolo CPU / GPU non elaborate e ignora molti altri fattori importanti come la larghezza di banda della memoria. Le aziende possono anche ottimizzare i benchmark che eseguono per favorire ingiustamente le proprie parti.

# 7 ARM produce chip

ARM non produce chip

Quasi tutti i sistemi embedded e a basso consumo sono alimentati da una qualche forma di processore ARM. Ciò che è importante notare è che ARM in realtà non produce chip fisici. Piuttosto, progettano i chip e lasciano che altre società li costruiscano.

Ad esempio, il SoC A13 nell’ultimo iPhone utilizza l’architettura ARM, ma è stato progettato da Apple. È come dare un dizionario a un autore e chiedergli di scrivere qualcosa. L’autore ha gli elementi costitutivi e deve aderire alle linee guida su come le parole possono essere utilizzate, ma è libero di scrivere quello che vuole.

Concedendo in licenza la loro proprietà intellettuale (IP), ARM consente ad Apple, Qualcomm, Samsung e molti altri produttori di creare i propri chip adatti alle diverse esigenze. Ciò consente a un chip progettato per una TV di concentrarsi sulla codifica e decodifica multimediale, mentre un chip progettato per essere inserito in un mouse wireless si concentrerà sul basso consumo energetico. Il chip ARM nel mouse non necessita di una GPU o di una CPU molto potente. Poiché tutti i processori basati su ARM utilizzano lo stesso set di base, possono eseguire tutti le stesse app.

# 8 ARM contro x86

ARM e x86 sono le due architetture dominanti del set di istruzioni che definiscono il funzionamento e l’interazione dell’hardware del computer. ARM è il re dei sistemi mobili e embedded, mentre x86 controlla il mercato di notebook, desktop e server. Esistono altre architetture, ma lavorano su applicazioni di nicchia.

Quando si parla di architettura di un set di istruzioni, ci si riferisce al modo in cui un processore è progettato all’interno. È come tradurre un libro in un’altra lingua. Puoi trasmettere le stesse idee, ma le scrivi in ​​un modo diverso. È del tutto possibile scrivere un programma e compilarlo in un modo, facendolo eseguire su un processore x86 e in un altro su ARM.

ARM si è differenziato da x86 in diverse chiavi di lettura che hanno permesso di dominare il mercato mobile. La più importante è la flessibilità e l’ampia gamma di offerte tecnologiche. Quando si costruisce una CPU ARM, è quasi come se l’ingegnere stesse giocando con i Lego. Possono scegliere i componenti che desiderano per creare la CPU perfetta per la loro applicazione.

Hai bisogno di un chip per elaborare molti video? Puoi aggiungere una GPU più potente. Hai bisogno di eseguire molta sicurezza e crittografia? Puoi aggiungere acceleratori dedicati. L’attenzione di ARM sulla licenza della loro tecnologia piuttosto che sulla vendita di chip fisici è uno dei motivi principali per cui la loro architettura è la più prodotta. Intel e AMD, d’altra parte, hanno ristagnato in quest’area, creato un vuoto in cui ARM è riuscita a infilarsi.

Intel è più comunemente associato a x86, i processori AMD eseguono la stessa architettura. Se vediamo x86-64 menzionato da qualche parte, questa è solo la versione a 64 bit di x86. Se utilizziamo Windows, potreste esservi chiesti perché sono presenti le cartelle: “Programmi” e “Programmi (x86)”. Non è che i programmi nella prima cartella non utilizzino x86, è solo che sono a 64 bit mentre le app in “Programmi (x86)” sono a 32 bit.

Un’altra area che può causare confusione tra ARM e x86 è nelle loro prestazioni relative. È facile pensare che i processori x86 siano sempre più veloci dei processori ARM ed è per questo che non vediamo quest’ultimi nei sistemi di fascia alta. Anche se di solito è vero (fino ad ora), non è davvero un confronto equo. L’intera filosofia progettuale di ARM è concentrarsi sull’efficienza e sul basso consumo energetico. Lasciano che x86 abbia il mercato di fascia alta perché sanno che non possono competere lì. Mentre Intel e AMD si concentrano sulle massime prestazioni con x86, ARM massimizza le prestazioni per Watt.

# 9 Le GPU sono processori più veloci delle CPU

Le GPU sono processori più veloci delle CPU

Negli ultimi anni, abbiamo assistito ad un enorme aumento delle prestazioni e della prevalenza di utilizzo della GPU. Molti carichi di lavoro tradizionalmente eseguiti su una CPU sono passati alle GPU per sfruttare il loro parallelismo. Per le attività che hanno molte piccole parti che possono essere calcolate allo stesso tempo, le GPU sono molto più veloci delle CPU. Non è sempre così, ed è il motivo per cui abbiamo ancora bisogno di CPU.

Per fare un uso corretto di una CPU o GPU, lo sviluppatore deve progettare il proprio codice con speciali compilatori e interfacce ottimizzate per la piattaforma. I core di elaborazione su una GPU, sono molto semplici rispetto a una CPU. Sono progettati per piccole operazioni che vengono ripetute più e più volte.

I core di una CPU, d’altra parte, sono progettati per un’ampia varietà di operazioni complesse. Per i programmi che non possono essere parallelizzati, una CPU sarà sempre molto più veloce. Con un compilatore adeguato, è tecnicamente possibile eseguire il codice della CPU su una GPU e viceversa, ma il vero vantaggio arriva solo se il programma è stato ottimizzato per la piattaforma specifica. Se guardassimo solo al prezzo, le CPU più costose possono costare € 50.000 ciascuna, mentre le GPU top di gamma meno della metà. In sintesi, CPU e GPU eccellono entrambe nelle proprie aree e nessuna delle due è necessariamente più veloce dell’altra.

# 10 I processori continueranno a diventare sempre più veloci

Una delle rappresentazioni più famose dell’industria tecnologica è la legge di Moore. È un’osservazione esatta quella che dice che il numero di transistor in un chip è circa raddoppiato ogni 2 anni. Questo concetto è stato accurato negli ultimi 40 anni, ma siamo alla fine di questa epoca e il ridimensionamento non sta avvenendo come una volta.

Se non possiamo aggiungere più transistor ai chip, il pensiero logico ci dice che potremmo semplicemente ingrandirli. La limitazione qui è ottenere abbastanza potenza dal chip e quindi rimuovere il calore che genera. I chip moderni assorbono centinaia di ampere di corrente e generano centinaia di watt di calore. Gli odierni sistemi di raffreddamento e fornitura di energia stanno lottando per tenere il passo e sono vicini al limite di ciò che può essere alimentato e raffreddato. Ecco perché non possiamo semplicemente creare un chip più grande.

I processori non continueranno a diventare sempre più veloci

Se non siamo in grado di creare un chip più grande, non potremmo semplicemente rendere più piccoli i transistor sul chip per aggiungere più prestazioni? Questo concetto è stato valido negli ultimi decenni, ma ci stiamo avvicinando al limite di come possiamo ottenere piccoli transistor. Con i nuovi processi a 7 nm e futuri 3 nm, gli effetti quantistici iniziano a diventare un grosso problema e i transistor smettono di comportarsi correttamente. C’è ancora un po’ di spazio per rimpicciolirli, ma senza una seria innovazione, non saremo in grado di andare molto il lá.

Quindi, se non possiamo rendere i chip molto più grandi e non possiamo rendere i transistor molto più piccoli, non possiamo semplicemente far funzionare i transistor esistenti più velocemente? Questa è un’altra area che ha dato benefici in passato, ma è improbabile che continui in futuro. Sebbene la velocità del processore sia aumentata ad ogni generazione per anni, è rimasta bloccata nella gamma 3-5GHz negli ultimi dieci anni. Ciò è dovuto a una combinazione di diversi fattori. Ovviamente aumenterebbe l’utilizzo di energia, ma il problema principale ha ancora a che fare con i limiti dei transistor più piccoli e le leggi della fisica.

Poiché rendiamo i transistor più piccoli, dobbiamo anche rendere più piccoli i fili che li collegano, il che aumenta la loro resistenza. Tradizionalmente siamo stati in grado di rendere i transistor più veloci avvicinando i loro componenti interni, ma alcuni sono già separati da un solo atomo o due. Non esiste un modo semplice per fare di meglio. Mettendo insieme tutti questi motivi, è chiaro che non vedremo il tipo di miglioramenti prestazionali osservati in passato.