Recensione NVIDIA GeForce RTX 4090: ADA Lovelace è grande in tutto e per tutto - HDblog.it

2022-10-11 21:30:15 By : Ms. Spring chan

Eccoci finalmente ad esaminare le prestazioni e le novità delle GeForce RTX 4000, la nuova generazione di schede grafiche NVIDIA basate su architettura GPU "Ada Lovelace" e realizzate su nodo produttivo TSMC a 4nm. L'annuncio è arrivato lo scorso 20 settembre dopo mesi di indiscrezioni e notizie - spesso fuorvianti - che però ora cercheremo di verificare in prima persona con i nostri test.

Come da tabella di marcia, apre le danze la top di gamma della serie, sua maestà GeForce RTX 4090, finora la scheda grafica più potente e "impressionante" su cui abbiamo messo le mani in tanti anni di attività. La nuova ammiraglia, insieme ai modelli che la seguiranno a breve - GeForce RTX 4080 in primis - porta sul mercato il meglio della tecnologia NVIDIA attualmente a disposizione; le novità sono tante e, almeno stando ai dati forniti dal produttore, vengono affiancate a prestazioni "pure" da primato che, rispetto alla precedente generazione GeForce RTX 30, sono nettamente superiori nei giochi, mentre in ambito ray-tracing si arriva anche quattro volte quello che può offrire un altro mostro di potenza come la GeForce RTX 3090 Ti (Recensione).

Questi risultati sono resi possibili non solo dalle novità architetturali delle GPU Ada Lovelace, ma anche da importanti implementazioni come il DLSS 3.0 e il SER (Shader Execution Reordering); a questi si affianca poi il doppio Encoder NVIDIA (NVEC) e tutta una serie di ottimizzazioni hardware/software che rendono queste GPU le soluzioni ideali anche per altri ambiti come la creazione di contenuti e l'Intelligenza Artificiale (ma non solo ovviamente). In questo contesto la GeForce RTX 4090 si pone come un nuovo punto di riferimento, un prodotto che come la sua antenata RTX 3090 (Recensione) non è una scheda pensata per il gaming, o meglio, offre prestazioni senza compromessi in 4K aprendo le porte all'8K, ma garantisce risultati incredibili sui software di produttività più diffusi.

Le peculiarità delle GeForce RTX 4000 e della GeForce RTX 4090 sono state già trattate nei nostri precedenti articoli, come da prassi però ora faremo un breve recap che farà da introduzione alla nostra suite di benchmark; non mancherà poi la sessione dedicata all'overclock dove i risultati sono stati altrettanto sorprendenti. NVIDIA è sembrata molto sicura delle potenzialità del nuovo prodotto, basti ricordare le dichiarazioni del CEO dell'azienda, Jensen Huang, in occasione della presentazione all'ultima GTC:

L'era del ray-tracing RTX e del rendering neurale è in piena crescita e sta rivoluzionando il settore, la nostra nuova architettura Ada Lovelace rappresenta un’evoluzione che porta tutto al livello successivo. Ada offre un salto di qualità nelle prestazioni per i giocatori e apre la strada ai creator di mondi completamente simulati. Con prestazioni fino a quattro volte superiori rispetto alla generazione precedente, Ada stabilisce un nuovo standard per il settore.

Partiamo dal principio e dalle GPU annunciate da NVIDIA che andranno ad equipaggiare le GeForce RTX 4000, almeno per questa "prima fase" di lancio dell'architettura Ada Lovelace. Abbiamo tre GPU: la top di gamma AD102 in dotazione alla GeForce RTX 4090, la AD103 su cui si basa GeForce RTX 4080 16GB e AD104 che NVIDIA utilizza sulla GeForce RTX 4080 da 12GB (ne abbiamo parlato QUI).

NVIDIA AD102 è un chip a dir poco imponente: 76,3 miliardi di transistor su una superficie di 608,5 mm2, 144 Streaming Multiprocessor, 18.432 Cuda Core, 144 RT Core e ben 576 Tensor Core. Come è accaduto per le precedenti generazioni, la GPU top di gamma "consumer" RTX 4090 è una versione leggermente castrata del chip (se così si può dire); gli Streaming Multiprocessor scendono a 128 e i Cuda Core a 16.384 (512 Tensor Core), abbinati a 24GB di memoria GDDR6X da 21Gbps su bus a 384 bit. Ma cosa cambia sostanzialmente rispetto alle GPU Ampere delle GeForce RTX 3000?

Iniziamo dalle basi. Le GPU Ada Lovelace possono contare su un nuovo Streaming Multiprocessor che, oltre ad essere decisamente più potente rispetto a quello di Ampere - si parla di un picco di 90 TFLOPS - risulta anche il doppio più efficiente. Questo però è solo l'inizio: a bordo troviamo anche i Tensor Core di Quarta Generazione per i calcoli AI con prestazioni sino a 1,3 TFLOPS (su RTX 4090) e gli RT Core di Terza Generazione che, grazie a diverse novità e ottimizzazioni, permettono di doppiare le prestazioni ray-tracing (pure) della precedente generazione, soprattutto nelle scene più complesse.

Parlando di hardware, le GPU NVIDIA ADA Lovelace vantano anche una cache L2 maggiorata e nuove unità come DMM (Displaced Micro-Meshese) e OMM (Opacity Micro-Maps), direttamente coinvolte quando parliamo di prestazioni ed efficienza di risorse in ambito ray-tracing; a queste poi si aggiunge un altro elemento importante denominato SER (Shader Execution Reordering) che permette di sfruttare meglio le risorse della GPU gestendo con più efficienza i carichi di lavoro shading.

Altra novità, tra le più importanti delle GeForce RTX 4000 possiamo dire, è il DLSS 3.0 (ne abbiamo parlato QUI), l'ultima incarnazione dell'ormai nota tecnologia di super sampling NVIDIA basato sull'AI, che promette un balzo prestazionale che può arrivare sino a quattro volte rispetto alle GPU Ampere con DLSS 2.0. Il DLSS 3.0 punta tutto sui nuovi Tensor Core di Quarta Generazione e su elementi come l' Optical Flow Accelerator (OFA) e Optical Multi Frame Generation, con quest'ultimo capace di generare interi frame di transizione; il tutto poi è abbinato alla tecnologia NVIDIA Reflex per abbattere i tempi di latenza e garantire così un' esperienza utente ancora migliore e più fluida. NVIDIA DLSS 3.0 debutta oggi con la GeForce RTX 4090 e oltre ai 35 giochi compatibili già annunciati, presto però sarà supportato da altri titoli.

Ultima caratteristica, non per importanza se la guardiamo dal lato dei creatori di contenuti, l'implementazione di un doppio encoder per la codifica/decodifica AV1 che, sempre stando ad NVIDIA, permette di migliorare le prestazioni sino al 50% quando si parla di esportazione.

Protagonista della recensione odierna è la GeForce RTX 4090, una scheda come detto davvero imponente, ma che sostanzialmente non si discosta dalle sue antenate, GeForce RTX 3090 e GeForce RTX 3090 Ti. Viste le caratteristiche di quest'ultima in relazione a quanto promette NVIDIA per la nuova ammiraglia, non sorprende che il TDP di RTX 4090 sia impostato a 450 watt; parliamo sicuramente di consumi importanti - soprattutto visto il periodo - ma come al solito non stiamo a discutere sui consumi di una scheda di questo tipo che, nella versione Founders Edition, costa in Italia 1.979 euro di listino.

Ricapitolando, la GeForce RTX 4090 offre 16.384 Cuda Core (+52% rispetto ad RTX 3090 Ti) mentre il reparto memoria rimane invariato - o quasi - con 24GB di VRAM GDDR6X che operano a 21 Gbps (21,2 Gbps per essere precisi); come per la GeForce RTX 3090 Ti, NVIDIA utilizza però GDDR6X Micron da 2GB, dimezzando quindi la quantità di chip sul PCB (12 in totale vs 24 di RTX 3090), impattando così positivamente su temperature e consumi.

Sappiamo che NVIDIA ha abbandonato il supporto NVLINK (QUI i dettagli), mentre riguardo il connettore di alimentazione troviamo il nuovo PCI-E 5.0 a 12+4pin che, come discusso in varie occasioni, garantisce un'erogazione massima di 600 watt, valori che abbiamo toccato con mano anche nei nostri test. Non avendo a disposizione un alimentatore PCI-E 5.0, abbiamo optato per l'adattatore fornito in bundle da NVIDIA, un cavo PCI-E 5.0 16pin che si snoda su quattro PCI-E 8pin da collegare però su quattro connettori PCI-E indipendenti dell'alimentatore (NVIDIA è molto chiara su questo). In realtà la GeForce RTX 4090 funziona con tre connettori 8-pin, il quarto è suggerito per l'overclock e se vogliamo "sbloccare" tutto il potenziale della scheda (che non è poco).

Riguardo l'estetica, la serie RTX 4000 non cambia direzione rispetto alle RTX 3000; questa GeForce RTX 4090 riprende il design Dual-Axial Flow-Through con doppia ventola, ulteriormente migliorato e a dir poco mastodontico (come del resto si vede in foto). Le ventole sono più grandi per garantire temperature di esercizio nella norma, mentre se invece guardiamo al PCB non notiamo particolari stravolgimenti rispetto alla vecchia generazione.

Prima di passare ai numeri, chiudiamo questo paragrafo con le frequenze, piuttosto pompate se guardiamo alle specifiche del chip AD102 e a quanto visto per esempio su una GeForce RTX 3090 Ti, già abbastanza spinta. La frequenza base del chip AD102 della GeForce RTX 4090 è di 2.235 MHz con Boost a 2.520 MHz, tuttavia l'algoritmo di boost NVIDIA permette di superare questo valore - in base all'applicativo e alle temperature - toccando anche i 2,7 GHz in game.

Come facilmente potete immaginare, una scheda grafica di questa portata necessita di un processore e una piattaforma hardware all'altezza, diversamente le prestazioni potrebbero essere falsate, lasciando inespresso una parte del potenziale della GPU. Anche l'alimentatore non è da sottovalutare; NVIDIA consiglia un'unità di 850 watt ma considerando il resto della piattaforma suggeriamo un buon alimentatore da 1.000 watt, che supporti lo standard PCI-E 5.0 o equipaggiato con almeno tre o quattro connettori PCI-E 8pin. In attesa di avere a disposizione i nuovi Intel Raptor Lake-S e confrontarli con i Ryzen 7000 recentemente annunciati per aggiornare definitivamente il nostro database, per questa prova rimarremo sul nostro sistema Alder Lake-S, utilizzando un Core i7-12700K overlcoccato a 5,5 GHz su quattro core e frequenza all-core da 5,3 GHz; l'alimentatore rimane il nostro fido Corsair RM1000x da 1.000 watt, decisamente all'altezza della situazione. A seguire la configurazione hardware utilizzata nel dettaglio:

Come visto per la GeForce RTX 3090 Ti, anche in questo caso abbiamo ampliato la suite di test oltre i giochi, integrando una sostanziosa parte di software per la produttività e calcolo di vario genere. Riassumiamo il tutto a seguire, sottolineando che i preset dettagliati dei giochi sono indicati direttamente nei grafici; segnaliamo anche che in questa occasione abbiamo evitato la risoluzione FHD (1920x1080p) in quanto ormai superflua per saggiare le prestazioni di questa tipologia di scheda.

Test 3D sintetici e giochi:

Test di calcolo - GPGPU - Rendering - Analisi Sientifica - Crittografia - Transcodifica Immagini - Ray Tracing:

Fatte tutte le premesse del caso, passiamo finalmente ai numeri a dir poco notevoli che sono venuti fuori dalla nostra prima sessione di test, ossia temperature, overclock e consumi. Partiamo dicendo che, nonostante le dimensioni spropositate (i partner andranno anche oltre con le custom) il dissipatore proposto da NVIDIA è assolutamente impeccabile. Viste le specifiche della scheda riteniamo le temperature di esercizio ottime, con livelli di rumorosità che si fanno importanti solo quando impostiamo un regime rotativo fisso sopra il 65-70%.

Anche con ventole gestite in automatico, la NVIDIA GeForce RTX 4090 non ha superato mai i 76 °C (hot spot 85 °C in realtà), permettendo di creare un profilo personalizzato con un ottimo compromesso tra temperature e rumore prodotto; inutile dire che le due ventole al 100% - oltre i 3000 RPM - sono invece molto rumorose, garantendo però di abbattere le temperature sino a 67 °C sotto FurMark (che è ottimo); anche le memorie si sono comportate bene, merito delle GDDR6X Micron da 2GB che permettono di usare meno chip e, cosa più importante, su un singolo lato del PCB.

Quanto ai consumi, vengono confermati i 450 watt di picco, mentre in gaming si nota una migliore efficienza rispetto alla GeForce RTX 3090 Ti, merito appunto della nuova architettura e del nodo produttivo TSMC 4nm. Se passiamo all'overclock - collegando il quarto PCI-E 8pin se non avete una PSU PCI-E 5.0 - abbiamo un'ulteriore conferma sulle ottime doti di questa GPU ADA Lovelace ad operare a clock molto spinti (almeno se guardiamo ad Ampere).

Rimandando comunque questo aspetto a test più approfonditi che faremo nelle prossime settimane, abbiamo superato i fatidici 3 GHz (3.045 MHz) di cui si parlava nei giorni scorsi, il tutto senza alcun problema di stabilità e temperature. Collegando il quarto PCI-E 8pin, la GeForce RTX 4090 esprime tutta la sua potenza nel vero senso del termine: 609 watt di picco sono tanti, ma le prestazioni offerte sono incredibili e fuori portata per qualsiasi GPU di precedente generazione.

Veniamo ora alla prova dei fatti, i giochi. Le premesse non lasciano spazio a dubbi, ma ovviamente cercare di quantificare l'aumento prestazionale generazione su generazione in raster e ray-tracing è importante, aprendo poi il palcoscenico al nuovo DLSS 3.0 che stravolge le carte in tavola e, anticipiamo, cercheremo di affrontare e approfondire meglio in un secondo articolo. NVIDIA ci ha fornito diverse opzioni per testare il DLSS 3.0, ricordiamo disponibile ufficialmente solo da oggi e quindi non ancora definitivamente sdoganato (nei prossimi giorni/settimane arriveranno nuovi titoli che lo supportano e potremo avere un metro di giudizio più affidabile).

Per il momento abbiamo testato il DLSS 3.0 sul benchmark dedicato del 3DMark e Cyberpunk 2077, titoli che in entrambi i casi danno ragione a NVIDIA riguardo il miglioramento offerto dalla nuova versione del DLSS. Sul titolo di CD Project assistiamo, almeno per il momento e in attesa di nuove release - a un incremento del framerate del 125%, percentuale che si assesta al 110% se prendiamo in considerazione il benchmark targato UL. Ribadiamo che torneremo più avanti sull'argomento DLSS 3.0, ma almeno per adesso non possiamo che confermare i dati forniti da NVIDIA.

Passando alla nostra suite, la situazione non cambia e abbiamo modo di vedere - tranne alcune eccezioni - quanto migliora la potenza bruta nei giochi con le GPU Ada Lovelace senza DLSS. In questo caso i risultati parlano da soli e le percentuali variano di titolo in titolo, soprattutto con risoluzione 4K, il vero terreno di battaglia della GeForce RTX 4090; iniziamo con le prestazioni pure senza ray-tracing:

Ribadendo che si aspettano anche driver ulteriormente ottimizzati e patch per i vari titoli, notiamo subito la marcia in più della RTX 4090 già sul test sintetico del 3DMark dove, prendendo come riferimento il pesante Time Spy Extreme (4K), la nuova GPU Ada Lovelace stacca la più potente Ampere - RTX 3090 Ti - quasi del 72%. In media registriamo un aumento del framerate in 4K del 54,4%, media in realtà "rovinata" da Far Cry 6 che vede la GeForce RTX 4090 davanti solo del 26,8%.

Nei benchmark con ray-tracing attivo le cose vanno ancora meglio, segno che l'architettura sviluppata da NVIDIA è proiettata seriamente per sfruttare al meglio questa tecnologia, aiutata in modo importante dal DLSS (quando attivo).

Anche in questo caso notiamo che i titoli Ubisoft sono quelli meno sensibili al passaggio tra architettura Ampere e Ada Lovelace (almeno per adesso), mantenendo comunque uno scarto prestazionale poco superiore al 30%; decisamente meglio i risultati su Metro Exodus Enhanced Edition, Hitman 3 e Shadow of The Tomb Rider - rispettivamente +76% e + 72% - con Cyberpunk 2077 che fa segnare un +114% con ray tracing e DLSS disabilitato (davvero notevole).

Altro ambito dove GeForce RTX 4090 mostra i muscoli è la produttività e il calcolo, con incrementi notevoli che in alcune occasioni toccano il 100%. Come per i giochi, anche su questa suite di software potremo ottenere migliori risultati con le prossime release dei programmi utilizzati, in linea di massima però siamo piuttosto soddisfatti del comportamento della scheda. Gli unici test su cui cercheremo di tornare sono quelli relativi a Da Vinci Resolve che, provato col benchmark di Puget, ci ha lasciati leggermente perplessi se confrontato con gli altri.

NVIDIA GeForce RTX 4090 dimezza in molti casi i tempi di esecuzione, che sia calcolo puro o rendering (vedi Blender ad esempio), confermando ancora una volta le dichiarazioni del produttore e il salto prestazionale rispetto all'architettura Ampere delle RTX 3000. Nel test crittografia di Sandra si rileva un boost prestazionale del 102% su GeForce RTX 3090 Ti, ma anche nel rendering di Octane siamo a un +85%, così come V-Ray che vede lo score salire del 77,5% in modalità Cuda.

Eccoci a tirare le somme sulla prima scheda grafica della serie NVIDIA GeForce RTX 4000, in un certo senso il modello più semplice da recensire nella fascia alta se guardiamo a quello che offrono, o meglio, hanno offerto finora, i prodotti di precedente generazione NVIDIA e AMD. GeForce RTX 4090 permette di cogliere al meglio le caratteristiche e le novità dell'architettura GPU ADA Lovelace, garantendo in sostanza quello che tutti cercano in un prodotto top di gamma del genere: prestazioni ed efficienza nettamente superiori rispetto alla sua antenata. Quando parliamo di efficienza ovviamente non guardiamo ai 450 watt di consumo di picco - che di questi tempi potrebbero far storcere il naso - ma a quello che la GeForce RTX 4090 offre rispetto a una GeForce RTX 3090 Ti, a parità di TDP o, come visto nei test, con un consumo medio in game inferiore (anche qui si potrebbe fare una sessione dedicata per avere dati più precisi).

La GeForce RTX 4090 batte a mani basse le "vecchie" top di gamma Ampere ed RDNA2 (manca la RX 6950 XT ma cambia poco) e permette agli utenti di sfruttare al meglio i monitor 4K 144Hz in gaming, al massimo dei dettagli e con ray-tracing attivo. Se passiamo poi alle prestazioni con DLSS attivo entriamo in un terreno ancora più fertile per NVIDIA che, con il DLSS 3.0, riesce non solo ad incrementare notevolmente il framerate (vedi Cyberpunk 2077 in 4K), ma garantisce un'esperienza di gioco più fluida e piacevole, abbinata anche a latenze inferiori grazie a NVIDIA Reflex.

Parlando di produttività le cose vanno ancora meglio e pensiamo che nelle prossime settimane i software che sfrutteranno appieno le caratteristiche dell'architettura Ada Lovelace aumenteranno, garantendo quindi ai creatori di contenuti (ma non solo) di abbattere drasticamente i tempi di lavoro, sia per l'elevata potenza elaborativa a disposizione che per il doppio encoder AV1, altro asso nella manica in questo ambito di utilizzo.

Per il resto i grafici parlano da soli, confermando i dati del produttore e gettando le basi per un nuovo punto di partenza per i competitor e le GPU next-gen, AMD in primis. Un accenno anche al potenziale in overclock di questa GPU che, seppur richiedendo molto alla PSU, risulta stabile nel quotidiano settata sino a 3 GHz e non solo per una sessione di benchmark; certo che 600 watt sono tanti, ma come visto nelle varie sessioni non c'è tutta questa necessità di "pompare" ulteriormente le frequenze della GeForce RTX 4090 (che supera comunque i 2,7 GHz). A questo proposito, negli articoli futuri cercheremo di trovare lo spazio per ulteriori prove in overclock, individuando i limiti in frequenza sia con TDP di fabbrica (450W) sia sbloccando tale valore via software (oltre i 600 watt). NVIDIA GeForce RTX 4090 promossa a pieni voti quindi, in attesa dei modelli "più consumer" come la GeForce RTX 4080 e delle sfidanti Radeon RX 7000 basate su architettura RDNA3.

Strano, sono proprio su Chrome!

Ok ma il mio discorso non cambia più di tanto. Fare un milione di FPS col DLSS 3.0 è un po' come barare. Da qui infatti ho detto che la vera forza è farli a risoluzione e input nativi. Il grafico da te postato non specifica neanche in quale scenario, così a naso potrebbe essere anche Prato Fiorito.

A fronte di questi dati, ribadisco quanto detto: mi aspettavo di più, tutto qui.

e domani si ordina la FE da SCAN UK ;)

a me con chrome da sempre errore

esiste la media (average, come nello screen da me postato) ed il caso specifico.

Io ho postato la media, te il caso specifico.

Il problema sono i picchi , poi in gaming si stabilizza ma i picchi di potenza erano quelli che causavano reboot sui PC con alimentatori collegati in mono rail alla gpu

dipende da cosa ci farai (solo gaming?), da se la overclockerai (o se, come me, praticherai un leggero undervolt) ed anche da che CPU usi e come la usi.

Ovvio che bisogna tener conto di 2 cose principalmente: Pensi che ti ritroverai mai in uno scenario dove sia CPU che GPU saranno al 100% di uso? Ed entrambi overclockati? In questo caso 850w non bastano. Gli spike, anche se ridotti con la serie 4000, ci sono comunque e possono arrivare a 600w.

Per come uso io le componenti 850w bastano e avanzano. Per altri potrebbero non bastare e Techpowerup ad esempio consiglia un 900w.

Per me cambiare PSU oggi non ha senso dato che stanno uscendo i 3.0..ma se proprio dovessi cambiare andrei di 1200w.

Le trascino nell'area di scrittura. Oppure sempre in questo riquadro, accanto al tastino ".gif" c'è il tastino per caricare le immagini.

Diciamo che non ho parole.

una curiosità come fai a caricare le immagini?

uhm https://uploads.disquscdn.c...

per sicurezza ho preso una evga 1000w platinum in offerta oggi prime day , sei sicuro che bastano 850? sarei in tempo per annullare

Belli tutti quegli FPS col DLSS 3.0, ma la vera forza è farli tutti a risoluzione nativa. Onestamente mi aspettavo di più da questa scheda, per quanto costa e quanto consuma, si stentano ancora i 60 FPS in 4K maxati. Alla prossima generazione.

ci vuole un grande scaffale per appogiarla per bene

Domani mi arriva la 4090 Gaming OC della Gigabyte , i miei figli non vedono l ora di giocare a minecraft rtx 4k a 144 fps

lol i consumi in gaming, qui si parla di prestazioni tra 1.5x e 2x consumando meno...come immaginato il mio 850w rimarra` ancora li` al suo posto fino all'uscita di buoni ATX 3.0

Già la Founders è quasi più grande del mio intero PC, non oso immaginare le custom (rip EVGA) https://uploads.disquscdn.c...

Recensione AMD Ryzen 9 7900X e Ryzen 5 7600X: Zen4 è tra noi!

Recensione AMD Ryzen 7 6800U, la iGPU ora convince

Recensione AMD Ryzen 7 5800X3D: la V-Cache 3D funziona alla perfezione

Recensione NVIDIA GeForce RTX 3090 Ti: l'ultimo grido di Ampere

HDnetwork s.r.l© - P.Iva 06183350484 L'informazione in Alta Definizione. Copyright 2020.