Sotto la Scocca – Guardiamo un attimo Nvidia Orin

Uno sguardo a cosa è veramente Nvidia Orin e perché ci sono di nuovo numerosi rumor sul suo suso per la prossima console Nintendo

Condividi l'articolo

Condividi su facebook
Condividi su linkedin
Condividi su twitter
Condividi su email

Dal lancio di Switch quanti passi in avanti sono stati fatti?

Oramai siamo abituati agli infiniti rumor su Switch Pro o Switch 2 o New Switch U XL. C’è uno stuolo infinito di leakers che dicono tutto ed il contrario di tutto, creando un vortice fumoso di mezze verità ed infinite cappellate prese sia dai propri desideri, che da effettivi rumor in chissà quale fase di produzione.

Considerate che a questo giro, i leak non sono neanche nuovi. Noi vi avevamo riportato le notizia intorno a Marzo 2022, per poi riprenderla, con addirittura la stessa copertina, seguendo le voci più recenti. A me più che discutere della veridicità dei rumor in sè, preme sfruttare l’occasione per fare un nuovo punto sull’avanzamento della tecnologia mobile attualmente disponibile sul mercato, per capire come questo settore specifico è avanzato negli anni e dove si sta dirigendo.

Potremmo partire da Nvidia stessa. Nel 12 febbraio 2008 Nvidia annunciò il suo primo Tegra APX 2500. Si parlava di processori grafici Nvidia accoppiati a processori ARM ad uso Smartphone e Tablet. Questa epopea durò per diversi anni, senza mai attecchire veramente. Io stesso ho avuto un Motorola Atrix 4G con a bordo un Tegra 2, ma la maggior parte dei cellulari continuava ad utilizzare tecnologie diverse. Nvidia non ha mai sfondato con la sua linea a bassa potenza, nonostante continuasse a sfornarne di nuovi.

Il leggendario cellulare Nvidia APX2500

Ironia della sorte volle che il suo primo vero successo commerciale arrivò con il suo ultimo chipset pensato per un’ottica mobile consumer. Tegra X1. Il cuore di Nintendo Switch. Era il 2015 quando questo chip fu rilasciato. Ci troviamo con il progetto principale caratterizzato per un funzionamento a 15W di assorbimento.
Da questo punto in poi, tutti i futuri sviluppi della piattaforma Tegra, cambiarono focus. Da consumer a bassa potenza si spostarono su due filoni diversi, uno scalato in alto ed uno in basso. Le schede standard divennero dedicate all’industria automobilistica. Qui il consumo diventa secondario e l’importante è dare le giuste performance per poter gestire sistemi infotelematici e guida autonoma di livello due nel migliore dei modi. Il secondo filone è quello di sistemi integrati, che hanno la loro vita a bordo di manufatti estremamente compatti, dove però è necessaria capacità di calcolo in locale. Qui si è ancora più stretti lato consumi rispetto ad una console da gioco, quindi si vive a performance davvero basse.

Oramai Nvidia è indirizzata verso questo e le IA

Successivamente arrivò il chipset Xavier che ricevette un Sotto la Scocca dedicato. Adesso siamo arrivati ad Orin, un chipset con un consumo di progetto letteralmente mostruoso: 60W. Pensato ancora una volta principalmente per le automobili, con il costruttore asiatico NIO pronto ad utilizzarle.

Quel che però è stato un po’ diverso per Orin è l’esistenza di numerose varianti a consumo sempre più basso, fino a ritornare nel range dei 10-15W, lo stesso di Tegra X1. La variante ad oggi designata come papabile per una futura console Nintendo è il T239.

Questo System on Chip, SOC, è una versione scalata verso il basso dei chipset completo AGC Orin 64 T234. Incrociando i rumor recenti con le informazioni ufficiali di Nvidia sulla piattaforma, sembra che il T239 sia comparabile all’ORIN NX 16. In questa tabella potrete vedere la comparazione con l’attuale Tegra X1.

Comparazione Chipset Nvidia

I miglioramenti in questi 7 anni sono stati notevoli nello spazio mobile. Per quel che riguarda il processore si passerebbe da un ARM A57 ad un A78. Uno standard per la comparazione tra processori è il DMIPS/Mhz, ovvero il quantitativo di operazioni che sono in grado di fare per ogni ciclo di ckock. L’A57 aveva un DMIPS di 4.8, mentre un Core A78 raggiunge un valore di intorno ai 15. Un miglioramento di più di tre volte. Questo l’abbiamo potuto osservare molto sugli smartphone, visto che oggi i medio di gamma equipaggiati con questi processori sono molto più scattanti rispetto a diversi anni fa e reggono meglio il tempo.

L’incognita totale ovviamente sarebbe su numero e frequenza effettivi di utilizzo. Non sarebbe strano arrivare ad avere effettivamente gli 8 core a disposizione, 2 per il sistema operativo e 6 per i giochi, così da mettersi in un’ottica comparabile con la scalabilità dei motori grafici più moderna, ma per far fronte alle necessità energetiche limitate di una nuova console in configurazione portatile, questi numeri possono sempre essere tagliati.

In termini di confronto con la concorrenza, l’efficacia dei core A78 permette a loro di essere comparabili agli Zen 2 che montano PS5 e Xbox Series. Il che non vuol dire che abbiamo la stessa potenza effettiva, ma che se fatti operare alla stessa frequenza, i loro core sono in grado di eseguire un numero di calcoli similare. Vorrei però fare un appunto sulla grande bugia che viene costantemente perpetrata dai costruttori di cellulari. C’è un’enorme differenza tra performance continua e di picco, per via dell’accumulazione del calore. Le frequenze dei core per cellulari sono spesso molto alte, ma i sistemi sono in grado di mantenerle solo per poco tempo, giusto per i benchmark, prima che le temperature raggiungano un valore critico. E sono frequenze che entrano in gioco nella vita di tutti i giorni quando si aprono pagine web o si caricano le applicazioni. Dopo pochi secondi, tutti a riposo.

Le frequenze per una console da gioco invece devono assicurare performance costanti nel tempo, quindi l’architettura deve essere tarata non per performance di picco, ma continue, il che vede una rimodulazione verso il basso della potenza di calcolo così da operare sempre problemi in equilibrio termico con l’ambiente.

Oramai il focus non è più migliorare solo le unità di calcolo generiche

Da un punto di vista grafico ci sono state diverse innovazioni negli anni. In linea di massima, si sta raggiungendo un limite a quanti transistor possiamo inserire in una GPU per eseguire calcolo generico puro. Siamo soliti pensare ad un dato come ad un qualcosa che non esiste, ma in realtà ha una sua presenza fisica non indifferente. Occupa uno spazio di memoria e deve essere spostato da una memoria all’altra per essere usato ed i risultati dei calcoli devono trovare il loro spazio. L’evoluzione più importante che ha raggiunto gli ultimi design di Nvidia ed AMD è l’aumento delle memorie cache all’interno della GPU. I dati possono rimanere vicini a dove servono maggior quantità e questo permette di ottimizzare di molto l’utilizzo delle risorse, quindi un singolo gruppo di unità di calcolo è in grado di eseguire più lavoro che in passato nella stessa unità di tempo.

Altri cambiamenti importanti legati solo alle architetture Nvidia sono stati i percorsi di calcolo dedicati e l’introduzione di unità di calcolo dedicate per lavori specifici. I dati possono assumere diverse forme, ne avevamo parlato per la Rapid Packet Math. Alcuni dati per i giochi sono impacchettati in strutture FP32, altri invece sono incapsulati in INT32. Le unità di calcolo sono in grado di gestire entrambe le strutture, ma in sequenza, se mi trovo degli FP32 seguiti da INT32, introduco dei passaggi in più che possono causare stalli e rallentamenti nell’esecuzione del codice. Nvidia su Turing ed Ampere ha predisposto due percorsi di calcolo, uno per gli FP e l’altro per gli INT, così da poter eseguire i calcoli in parallelo e migliorare l’efficienza dell’esecuzione del codice.

Le altre unità di calcolo aggiunte permettono di eseguire calcolo per il Ray Tracing e calcolo IA attualmente sfruttato per il DLSS. In questa configurazione ipotizzata di Orin, una Switch 2 avrebbe 1024 unità di calcolo FP32, 8 RT Cores e 32 Tensor Cores.

In termini di potenza di elaborazione grafica, il picco massimo si avrebbe a 928Mhz per 1.88TF. Possibile frequenza da usare in Dock? Difficile per i consumi che raggiungerebbero i 25W e questo calore va dissipato. Già oggi a metà di questi valori Nintendo Switch diventa abbastanza calda nella dock.

L’aumento di efficienza degli ultimi anni ha portato ad un’esplosione di PC in form factor console portatile.

Riassumendo un po’, il tutto dovrebbe rendere questa nuova piattaforma comparabile con Steam Deck. Si, fare confronti con console casalinghe si potrebbe azzardare a dire “una PS4 pro nelle vostre mani!!!!“, però alla fine il sistema attualmente in commercio con consumi, avanzamento tecnologico e performance più simili, è proprio il pc portatile di Valve con il suo cuore denominato Aerith.

Anzi, per dirla tutta, la scheda grafica di Steam Deck ha 8 unità grafiche, le stesse di quelle di questa variante di Orin, sarebbe un confronto molto diretto tra le due case costruttrici di GPU su quanto bene possono lavorare con lo stesso numero di unità. Considerando che l’unità di Valve riesce a far girare Metro Exodus in versione pienamente ray tracing a 30fps con tecniche di ricostruzione immagine, Orin dovrebbe riuscire a fare meglio essendo sia la ricostruzione che il ray tracing di Nvidia più avanzato.

Il resto del sottosistema, quindi le memorie e la velocità delle stesse, serve per far rimanere il sistema equilibrato e per gestire gli asset di qualità maggiore.

Plausibile che si provi ad utilizzare una variante di Orin per la prossima console Nintendo? Sì. I miglioramenti in ambito a bassa potenza negli ultimi anni sono stati notevoli? Sì. Oramai si è accumulato un miglioramento tecnologico tale da permettere a Nintendo accesso a tecnologie rodate, già ammortizzate industrialmente , con volumi di produzione che si stanno liberando per essere accessi senza eccessiva criticità così da imprimere ad un successore un salto tecnologico sensato. Il tutto mantenendo la retrocompatibilità, visto che si continuerebbe ad usare la stessa architettura base.

Lo faranno? E quando lo faranno? Queste sono le domande alle quali difficilmente si avrà risposta, può arrivare solo dalla bocca del diretto interessato. Abbiamo visto che nell’ultimo periodo la console stessa sembra in flessione negativa, ma il software riesce ad esplodere comunque in vendite. Io vi posso dire quello che avrei fatto io, ma non sono Nintendo. Io avrei cercato di avere tutto pronto per lanciare la nuova console con Breath of the Wild 2, per ripetere la squadra vincente.

L’unica realtà dei fatti oggettiva è questa: in questi anni, tra avanzamenti nei nodi produttivi dei processori, tecniche di ricostruzione delle immagini sempre più affinate e schermi OLED, la divisione che esisteva tra il mondo del gaming fisso e quello portatile si è appianata enormemente. E Nintendo Switch con la sua formula ibrida, si trova nella posizione migliore per capitalizzare da tutti questi miglioramenti.

Potrebbero interessarti

No more posts to show