NVIDIA lancia la serie GeForce RTX 30: qui la potenza si misura in "Ampere"

Leggi questo articolo grazie alle donazioni di Marco Babolin, Filippo Gatti, Riccardo Dalla Fontana, Giacomo Fortunati, Marco Borsò, Andrea Pasqua, Andrea Montagna.
♥ Partecipa anche tu alle donazioni: sostieni SaggiaMente, sostieni le tue passioni!

Stasera parleremo di qualcosa che non vedremo mai su Mac. Non solo perché Apple non fa business con NVIDIA da parecchio tempo, ma anche perché ci sono parecchi indizi che vedono il passaggio ai SoC Silicon anche come un'occasione della mela di dare il benservito alle GPU dedicate. Tuttavia molti nostri lettori sono, o sono anche, utenti PC e lì la musica è decisamente diversa. Le GeForce detengono da diverso tempo non solo una buona fetta di mercato, sempre parlando di chip dedicati, ma anche una supremazia nelle prestazioni che AMD non è ancora riuscita a scardinare, riponendo le speranze nelle prossime RDNA2 o Big Navi. Nel frattempo, però, l'azienda guidata da Jensen Huang (non possiamo dire di Santa Clara perché tutte e tre le grandi rivali sono lì — AMD, che ha lasciato Sunnyvale nel 2016, Intel ed NVIDIA) ha alzato ancora l'asticella e nemmeno di poco, con le nuove GeForce RTX 30.

Tutti i modelli introdotti dispongono di GPU della serie "Ampere", prodotte da Samsung col processo a 8 nm, che negli scorsi mesi aveva già fatto il suo debutto nell'ambito del general-purpose computing: ora si pensa invece all'utente finale, con numerose migliorie nel proprio arsenale. La parte general-purpose, benché non sia qui lo scopo principale, gode di tutti i benefici tecnici già visti nei modelli appositi, il che si traduce non solo in migliorie nelle elaborazioni che concernono il machine learning e l'intelligenza artificiale, ma anche e soprattutto il ray-tracing in tempo reale che è uno dei fiori all'occhiello delle GeForce. A seconda del contesto, si parla anche del doppio delle prestazioni rispetto alla scorsa generazione. I giochi che sfruttano il RT sono in crescita e oggi ne è stato annunciato un altro, il cui nome è tristemente famoso negli ultimi tempi per le orticarie provocate nel mondo Apple: Fortnite. Il titolo di Epic presto sfrutterà tale tecnologia per aumentare il realismo di elementi ambientali come ombre, riflessi ed altro ancora.

Più in generale, però, è l'architettura GPU ad essere stata completamente rafforzata, con le performance raddoppiate che possono essere raggiunte pure al di fuori del ray-tracing. Pochi nomi nuovi (in termini di tecnologie) ma tanta forza bruta, stavolta, questo è il sunto che si può trarre dalla presentazione di NVIDIA. Le memorie GDDR6X, fornite da Micron, svolgono anch'esse un ruolo molto importante nel raggiungimento dello scopo, con elevate velocità a fronte di consumi energetici non troppo esosi. A ciò si aggiungono lato hardware il supporto HDMI 2.1 e alla decodifica dei filmati AV1, soprattutto in ottica 8K HDR. In combinata software, ossia previo supporto delle software house, troviamo invece: RTX IO, che permette di spostare dalla CPU alla GPU il caricamento di vari elementi di gioco; Reflex, per ridurre al minimo la latenza durante il gioco; Broadcast, per ottimizzare lo streaming delle sessioni ludiche sulle principali piattaforme; Omniverse Machinima, un nuovo set di strumenti per lo sviluppo di asset grafici sempre più realistici grazie al contributo dell'intelligenza artificiale.

Il più grande salto generazionale considerando il rapporto prezzo/prestazioni, così si pronuncia NVIDIA nel descrivere le GeForce RTX 30, la cui gamma sarà composta al momento da tre modelli. Prima di entrare nel dettaglio di ognuno, guardiamo le due caratteristiche strutturali comuni: il design è stato riprogettato, con un nuovo sistema di dissipazione che promette un'efficienza doppia rispetto al passato, sostenendo maggiormente le massime prestazioni a temperature non eccessive; anche l'alimentazione è stata rivista, che ora occupa una sezione più compatta e passa ad un connettore a 12-pin, retro-compatibile con quelli a 8-pin tramite un adattatore incluso nelle confezioni di vendita.

Guardiamo ora al trio di cui si compone la nuova proposta di NVIDIA. La RTX 3070 è la entry-level, in arrivo ad ottobre al prezzo di 519€, con 5888 core CUDA in grado di operare a frequenze fino a 1,73 GHz e dotata di 8 GB GDDR6 (non X), che genera sino a 20,4 TFLOPS nelle elaborazioni shader, 114 in quelle Tensor/AI e 40 nel Ray Tracing. Valori superiori alla precedente top di gamma RTX 2080 Ti, a fronte di un TDP leggermente inferiore, 220 W. Si sale poi con la RTX 3080, che potremmo definire la top di gamma mainstream e che arriverà dal 17 settembre a 719€. Qui i core CUDA diventano 8704, con clock massimo di 1,71 GHz, e troviamo 10 GB GDDR6X. I numeri sono poderosi, arrivando ad oltre il doppio teorico sulla 2080 Ti: 29,8 TFLOPS shader, 238 TFLOPS Tensor, 58 TFLOPS Ray Tracing. Qui però occorre avere un alimentatore più carrozzato, avendo un TDP di 320 W. Infine, si arriva al vero top, un'autentica bestia nelle schede tecniche: la RTX 3090, che debutterà il 24 settembre. 10496 core CUDA a 1,7 GHz massimi, ben 24 GB GDDR6X, 35,7 TFLOPS shader, 285 TFLOPS Tensor, 69 TFLOPS Ray Tracing. Numeri poderosi e il TDP non sale nemmeno più di tanto rispetto la 3080, arrivando a 350 W. A scoraggiare potrebbe essere il prezzo, che non la rende proprio per tutti, diciamo così: 1.549€.

Una gamma non per tutti, ma quasi. La NVIDIA GeForce RTX 3090, considerabile di fatto erede delle Titan, è certamente quella che più lascia di stucco per le prestazioni e per il prezzo (se lo si desidera c'è pure il supporto SLI NVLink...). Potentissima, certo, ma di primo acchito si potrebbe pensare: perché spendere 1.549€ per una GPU quando con la stessa cifra si può comporre un PC completo in grado di togliersi non pochi sfizi? In realtà il discorso va ben oltre i soldi. Non è una scheda grafica che si rivolge agli utenti comuni, ma a gamer estremi, professionisti del campo video e/o dell'intelligenza artificiale. Più in generale, a tutti coloro che hanno le disponibilità economiche e sanno come sfruttarla al massimo. Un po' rozzamente potremmo paragonarla alle Ferrari, dove l'ampio portafogli non è l'unica dote necessaria, ancor prima bisogna essere pronti a saperle guidare, domare e spremere (d'accordo, oggi l'elettronica viene in aiuto, ma non è una scusa per prendere alla leggera 600/700 e più CV). Alla maggioranza si rivolgono le RTX 3070 e ancor più 3080, che offrono potenze egregie a prezzi tutto sommato buoni, in attesa che arrivino poi ulteriori modelli basati sull'architettura "Ampere" ad accontentare coloro che devono prestare ulteriori attenzioni al budget.

Le GeForce RTX 30 non scherzano, almeno sulla carta, e vedremo nelle prossime settimane se anche benchmark e prove sul campo lo confermeranno. È certo che, a prescindere, NVIDIA ha voluto dare un chiaro messaggio alle rivali: provate a prenderci, se ci riuscite. E probabilmente AMD non è nemmeno la principale destinataria, benché con le Radeon basate su RDNA2 è attesa ad una vera prova del 9 dopo troppo tempo passato a mangiare la polvere nella fascia alta delle GPU. L'avviso è rivolto soprattutto ad Intel, che con le prossime Xe ha messo gli occhi pure sulle schede dedicate: le GeForce non staranno ad aspettarle e non è concesso margine di sbaglio. In tutto questo, sarà interessante vedere come se la caverà anche Apple in ottica Mac Pro una volta che conterà interamente sulle sue sole forze, abbandonando tanto le CPU Intel quanto i chip grafici AMD.

Giovanni "il Razziatore"

Deputy - Ho a che fare con i computer da quando avevo 7 anni. Uso quotidianamente OS X dal 2011, ma non ho abbandonato Windows. Su mobile Android come principale e iOS su iPad. Scrivo su quasi tutto ciò che riguarda la tecnologia.

Commenti controllati Oltre a richiedere rispetto ed educazione, vi ricordiamo che tutti i commenti con un link entrano in coda di moderazione e possono passare diverse ore prima che un admin li attivi. Anche i punti senza uno spazio dopo possono essere considerati link causando lo stesso problema.