Questo E3 è stato alquanto anomalo. Siamo oramai sulla via della trasformazione di questa manifestazione, sempre meno centrale in un mondo che vive di informazioni e leak costanti. Rimane però ancora quell’aura da evento esclusivo, con gli occhi del mondo puntati addosso, che permette all’E3 di continuare ad essere un buon momento per presentare informazioni ad una massa di giornalisti e pubblico anche più generalista, non solo di settore. E’ in questa cornice che AMD ha deciso di presentare i suoi nuovi prodotti.

AMD è la fornitrice di CPU e GPU per le console di casa Microsoft e Sony e lo sarà anche per la prossima generazione, lasciando Intel e Nvidia al solo mondo PC, anche se la seconda è riuscita a prendersi la fetta di giocatori Nintendo. Con questo articolo cercheremo di capire quali sono i miglioramenti e come questi impatteranno sulle future console e PC da gioco.

Molti core per tutti

La nuova offerta di AMD si dirama su entrambe le loro linee di prodotto: CPU e GPU, con la serie di CPU 3000 e le GPU 5700. I Ryzen che si basano sull’architettura Zen 2 furono già presentati sul finire di maggio in occasione del Computex 2019. Hanno colto l’E3 per presentare la loro CPU di punta: il Ryzen 3950X. 16 core. 32 Threads. 4.7Ghz di boost, 3.5Ghz base. 105 Watt di consumo. 749$ di prezzo.

Il mio dubbio a questo punto è: perché presentarlo come processore da gaming? I videogiochi moderni, se arrivano ad usare 6 core, è un miracolo. Qui ce ne sarebbero ben 10 fermi a girarsi i pollici. La soluzione è presto detta ed è stata svelata all’inizio della conferenza: lo streaming. Oggi tutti vogliono provare a trasmettere il proprio giocato su Twitch. Codificare un flusso video mentre si sta giocando ad un gioco pesante, garantendo un’elevata qualità ai propri spettatori, richiede molta potenza di calcolo. Il compito ricade sulla CPU.

RDNA Ryzen 3000
Test preliminari con un set up non precisato, ma AMD mostra una performance equivalente, quindi fa leva su altri fattori per vendere il suo 3900X.

Gli streamer che lo fanno di professione, hanno spesso un set up a due computer: uno per il gioco ed uno per gestire lo streaming. Con i processori da 12 e 16 core, disponibili su una piattaforma consumer, AMD aggredisce proprio questa esigenza: fare tutto su un solo computer. Nella demo da loro mostrata, un 3900X (12 core) riusciva a gestire uno stream in fullHD a 10Mbps con preset Slow di The Division 2, un gioco in grado di sfruttare adeguatamente un esacore. Il processore Intel era particolarmente occupato con il gioco per garantire uno stream di questa qualità, mentre il 3900X aveva tantissima potenza libera.

Per streamer professionisti, la proposta è molto interessante, principalmente perché ha abbassato drasticamente il costo per ottenere una soluzione multicore. Per l’utente medio, aspirare a comprare un processore del genere solo per lo streaming è largamente inutile. L’encoder Hardware delle schede Nvidia Turing garantisce un’ottima qualità visiva (pari all’x264 software a medio) con una richiesta di risorse veramente esigua. Questo core è per tutti colori che hanno bisogno di tanti core, quindi di lavori professionali, ma non di tanta banda passante sulla memoria.

Radeon DNA

La parte centrale della conferenza è stata quella più interessante, perché ha presentato la nuova famiglia di processori grafici di AMD: Navi. Arriverà il 7 luglio in 2 varianti: la 5700 e la 5700 XT. Con Navi, AMD ha finalmente cambiato architettura. Passiamo dall’oramai vetusta ed inadeguata GCN (roba nata nel 2012), alla RDNA. A livello di numeroni AMD dichiara un aumento del 25% in performance per clock e un 50% migliori performance per watt. Il cambio dell’architettura si può notare dal numero di transistor. In appena 251 mm2 sono riusciti a piazzare 10,3 miliardi di transistor, un aumento del’80% rispetto ai precedenti Radeon 580.

Il tallone di Achille dell’architettura GCN è sempre stata l’efficienza di utilizzo della loro potenza di calcolo. Sulla carta, le loro schede dovevano letteralmente triturare Nvidia in ogni fascia di mercato. Premesse che, nella realtà, non sono state poi mantenute.
Nell’architettura RDNA AMD ha quindi snellito molto le autostrade che incanalano i dati verso le unità di calcolo.

AMD RDNA
Graficamente il cambio di logica nel percorso dei dati tra le architetture è molto più evidente

GCN aveva wavefront larghi 64, e le loro unità SMID avevano 16 slot. In RDNA sono entrambi grandi 32 thread. Ok, paroloni. Cerchiamo di sviscerare un attimo il concetto che si vuole evidenziare con questi cambi tecnici senza addentrarci troppo in profondità. Il wavefront è l’insieme delle istruzioni raggruppate e pronte ad essere inviate alle ‘unità di calcolo. La vecchia architettura necessitava di 4 cicli per passare le istruzioni a tutti gli SMID (64/16). Inoltre, qualora non si riuscisse a raggruppare le istruzioni in blocchi da 64 thread, si sprecava tantissimo tempo con parti della GPU in attesa.

Per fare funzionare il tutto al meglio, occorreva molto lavoro da parte degli sviluppatori, per trovare qualcosa da fare alle pipeline in stallo. Per questo il tanto parlato Async Compute sulle GPU di AMD ha un effetto estremamente benefico. Permette di sfruttare le pause. Aver ridotto la grandezza del wavefront in RDNA, permette di raggruppare più facilmente i carichi di lavoro, mentre l’aver allargato la grandezza dello SMID permette di occupare 1 solo ciclo a passare i dati. Questa è la chiave di volta che permette all’architettura di essere un vero passo avanti verso l’efficienza. Da notare come AMD abbia mantenuto la compatibilità con il wavefront a larghezza 64. Silicio e logica in più, ma è fondamentale per non rompere in un solo colpo l’ecosistema console e permettere di avere retrocompatibilità con tutto il codice ottimizzato per GCN.

Il triangolo no

L’altro grande punto debole dell’architettura GCN era la capacità di elaborazione di poligoni, rimasta praticamente statica sin dalla seconda generazione di CGN. Questo è anche il motivo per il quale i giochi su PS4 e Xbox One non hanno visto un aumento smodato della mole poligonale, favorendo miglioramenti in altri campi. Su PC invece, alcuni giochi vicini ad Nvidia, potevano offrire l’uso di tessellatura, quindi di tanti piccoli poligoni, per arricchire di dettaglio la scena, con un peso prestazionale più limitato sulle schede del team verde. Ebbene, RDNA migliora anche in questo campo in due modi diversi.

In primis, ora l’architettura è in grado di gestire il doppio di poligoni nel suo ciclo di lavoro rispetto a GCN. Valori comunque inferiori a quelli di Nvidia con Turing, ma un enorme passo in avanti. Poi, sono stati reintrodotti gli shader primitivi. Furono presentati con Vega, ma vennero disattivati perché sostanzialmente non funzionanti. Si tratta di codici in grado di processare in modo molto più efficiente la geometria. Questi shader sono in grado di eliminare da soli tutti gli elementi che non servono alla scena, ad un ritmo elevato. Se finalmente questa feature venisse usata, si parlerebbe di miglioramenti prestazionali anche del 30%.

A questo si aggiunge anche un nuovo livello di memoria cache, che dovrebbe aiutare molto le prestazioni generali. Turing è un grande passo in avanti per Nvidia principalmente per aver riempito la GPU di memoria cache vicina alle unità di calcolo e veloce. L’approccio di AMD è meno invasivo, ma cionondimeno migliorativo. Le altre feature presentate sono soluzioni software varie ed eventuali, difficili da giudicare senza la minima informazione, quindi sorvolo, anche perché muoiono quasi tutte col tempo.

ROSSO SCARLATTO

Non so voi, ma tutto questo grigiore per un progetto chiamato Scarlett…

Parliamo un attimo dell’elefante nella stanza. Scarlett. E quella dichiarazione di 4 volte la potenza dell’Xbox One X. Che tutti subito a farsi i calcoli veloci a mente. 6×4 = 24TF. SCARLETT 24 TERAFLOP. Allora, calmi. La nuova Navi 5700XT, ha 9,75TF di picco. Consuma 225 Watt solo lei e costa 449$. Scarlett cosa potrà mai avere dentro? Considerando l’efficienza per clock di prima, del 25%, una RDNA a 10TF, dovrebbe rendere come una 12,5 TF CGN. Ecco quindi che la 5700XT o comunque una sua variante sembra un buon candidato. Il vero passo avanti però è un’altro. Il passaggio dal core Jaguar ad un Ryzen. Usando il potere della dietrologia, possiamo dire che le IPC di un Zen 2 sono il 95% maggiori dei core Jaguar. Ciò vuol dire che un Ryzen a 1,17Ghz avrà le stesse performance del core dell’Xbox One X che viaggia a 2,3Ghz. Ora, prendiamo i 4,7Ghz di turbo del 3950X. Sarebbero i 9,1Ghz equivalenti di un Jaguar. Ovvero, quasi 4 volte.

Così è un po’ tirata, io mi aspetto frequenze realisticamente intorno ai 3Ghz, ed un conteggio di core pari ad 8. Qualora avessero l’SMT abilitato, si parlerebbe del doppio dei core delle console attuali, portando anche con i 3Ghz ad un quadruplicamento della potenza.

In fondo si parlava di 120fps. E 120fps è 30 x 4.

Direi che è arrivato il momento di tirare le conclusioni. I prodotti di AMD potrebbero essere l’inizio di un grande ritorno anche dal lato GPU. La mentalità dietro alle loro GPU è cambiata, allineandosi a quella di Nvidia. La nuova architettura è pensata per la velocità, meno unità ma estremamente più efficienti. L’aumento di performance lato geometria potrà portare davvero un grande salto poligonale nei giochi esclusivamente next gen. Guardiamo ai tempi futuri con occhio attento, perché la tecnologia che piloterà le prossime console è finalmente qualcosa di decente e non uno scarto di magazzino.

Commenti

risposte