Wielki i wściekły. Test i recenzja GeForce RTX 4090

Oto i on: GeForce RTX 4090 w pełnej okazałości, wielki i wściekły niczym berserk. Nowa generacja NVIDIA Lovelace wreszcie zawitała w nasze skromne progi, a my nie omieszkaliśmy przywitać jej z otwartymi ramionami. Czy nowa karta graficzna przynosi wzrost wydajności, jakiego oczekiwaliśmy po następcy RTX-a 3090? Czy uzasadnia on kosmiczną cenę? GeForce RTX 4090 jest pełny zaskoczeń – sprawdź jego test wydajności w grach.

Recenzja GeForce RTX 4090. Architektura NVIDIA Lovelace w (prawie) najlepszym wydaniu

GeForce RTX 4090 to model, który jeszcze długo przed premierą wzbudzał ekscytację. Topowa półka to może nisza, ale nawet jeśli niewielu decyduje się na zakup tak drogiej karty graficznej, to po prostu trudno przejść obojętnie wobec możliwości nowej architektury (NVIDIA Lovelace) i przeskoku wydajnościowego. Ten jest, zgodnie z oczekiwaniami, bardzo duży – wyższy od tego, który wprowadziły topowe modele z serii RTX 3000.

Firma NVIDIA pozostała wierna tradycyjnej, monolitycznej budowie, ale obniżyła znacząco proces technologiczny, rezygnując z usług Samsunga i powracając do TSMC (4N, czyli ulepszona dla układów „zielonych” 5-nanometrowa litografia), upakowując prawie 3 razy więcej tranzystorów (76 mld w AD102 vs 28 mld w GA102) . Znacznie większa porcja rdzeni CUDA, która ma diametralny wpływ na ostateczność wydajność karty graficznej, także robi wrażenie.

W recenzowanym RTX-ie 4090 z 24 GB VRAM-u (384-bit), który wykorzystuje topowy układ graficzny AD102, jest ich aż 16384 (a to nawet nie jest pełny rdzeń!). Dla porównania RTX 3090 Ti może pochwalić się „tylko” 10752 rdzeniami CUDA. NVIDIA może jeszcze bardziej popisać się w RTX-ie 4090 Ti. Większe zmiany zaszły w podsystemie pamięci cache L2. Tej w RTX-ach 3000 było maksymalnie 6 MB, natomiast w RTX-ach 4000 możesz liczyć do 96 MB (72 MB w RTX-ie 4090).


rdzeń graficzny ada lovelace

W tej generacji, podobnie jak w dwóch poprzednich (Turing i Ampere), dużą rolę odgrywają obliczenia, które wykorzystują ray tracing i algorytmy sztucznej inteligencji. W związku z tym NVIDIA wprowadziła nowe generacje rdzeni RT (trzecia) i Tensor (czwarta). Te w połączeniu z ulepszonym akceleratorem przepływu optycznego (OFA), który ma niebagatelne znaczenie w działaniu DLSS 3, zapewniają jeszcze wyższy poziom wydajności w grach śledzeniem promieni i aktywną techniką skalowania obrazu.

Brzmi to wybornie, a to nie koniec: wisienkę na torcie stanowią dwa enkodery NVENC oraz sprzętowa obsługa kodowania AV1. Docenią to chociażby streamerzy, którzy będą mogli postawić na jeszcze wyższą jakość strumieniowania treści. Do pełni szczęścia brakuje złącza DisplayPort 2.0. Trochę rozczarowuje jego brak, skoro jest on obecny w kartach Intel ARC. Dla wielu użytkowników to jedynie drobnostki, które nikną w obliczu wydajności GPU. Jak więc wypada w testach RTX 4090? Spoiler alert – potwornie!

Platforma testowa

Test GeForce RTX 4090 w grach. Nowe oblicze gamingu

NVIDIA podczas oficjalnej prezentacji kart GeForce RTX 4000 chwaliła się nawet 2-4-krotnie wyższą wydajnością. W rasteryzacji nie należało się spodziewać takich osiągów. Takich można spodziewać się w testach z (ulepszonym) RT i DLSS 3. To nie znaczy, że liczby nie są imponujące, ale jak bardzo – to zależy od gry i rozdzielczości.

Wzrost wydajności względem RTX-a 3090 Ti przekracza często 50%. W pojedynczych przypadkach mowa o prawie 70% (AC Valhalla) czy nawet niemal dwukrotnej różnicy (np. Metro Exodus w 4K). A przecież to nawet nie jest to odpowiednik RTX-a 4090, bo nim jest RTX 3090, względem którego różnice będą jeszcze większe.

1080p

RTX 4090 nie jest kartą przeznaczoną do 1080p, a jeśli już chcesz grać w takiej rozdzielczości, potrzebujesz diabelnie mocnego procesora, który nie będzie ograniczał tego monstrum od NVIDII. Patrząc na stosunkowo niewielkie różnice w wydajności między RTX-em 3090 Ti a RTX-em 4090 w wybranych grach (Horizon Zero Dawn, Metro Exodus czy Far Cry 6), widać, że Intel Core i9-12900K nie jest idealnym kompanem do RTX-a 4090 w Full HD.

Trzeba czekać na nowe Intele, a w szczególności na Core i9-13900KS.

1440p

W 2560 x 1440 pikseli procesor nadal odgrywa dużą rolę, więc i w tym przypadku przyda się mocarne CPU do RTX-a 4090. Różnice w starciu z RTX-em 3090 Ti są jednak już bardziej odczuwalne. W niektórych grach (Cyberpunk 2077, Shadow of the Tomb Raider, RDR2, AC Valhalla) można mówić już o przepaści wydajnościowej.

4K

GeForce RTX 4090 to model stworzony z myślą o 4K i w prawie każdej z przetestowanych gier osiąga co najmniej 100 klatek na sekundę (wyjątek stanowi Cyberpunk 2077).

Ray tracing

GeForce’a RTX 4090 przetestowaliśmy tylko w jednej grze z włączonym ray tracingiem, ale w najlepszej możliwej – Cyberpunku 2077. To gra, która autentycznie zapiera dech w piersiach z aktywnym śledzeniem promieni. Eksploracja neonowego Night City na RTX-ie 4090 to czysta, niezachwiana niczym przyjemność. Karta osiąga prawie dwukrotnie wyższą wydajność niż RTX 3090 Ti w ray tracingu (w rozdzielczości Ultra HD).

Za wcześnie, by myśleć o 4K i detalach ultra z RT przy stałym 60 fps+, dlatego w parze ze śledzeniem promieni powinno iść DLSS, a szczególnie DLSS 3, które jest zarezerwowaną tylko dla kart RTX 4000 nowością. Niestety, przed premierą żadna gra nie oferowała tej opcji, dlatego nie zamieściliśmy wyników.

Dodatkowo w grze CD Projektu RED spodziewaj się niedługo aktualizacji, która zaoferuje jeszcze bogatsze ustawienia RT (tryb Overdrive). Te mogą być zbyt obciążające dla RTX-ów 3000, ale dla nowej generacji – niekoniecznie, zwłaszcza w połączeniu z nową wersją techniki skalowania obrazu NVIDII.

DLSS 3

DLSS 3 – dzięki ulepszonemu w generacji Lovelace akceleratorowi przepływu optycznego i funkcji DLSS Frame Generation – generuje dodatkowe klatki, zwiększając drastycznie wydajność gry (nawet 4-5-krotnie!). Także wtedy, gdy wąskim gardłem jest CPU, co nie jest możliwe na DLSS 2.0, które potrafi poprawić płynność co najwyżej ponad 2-krotnie i nie przyspiesza znacząco gier w miejscach procesorowych.

Wbrew pozorom opóźnienia, które budziły obawy po zapowiedzi DLSS 3, nie wzrastają aż tak znacząco względem DLSS 2.0 (zależy od gry – czasem są wyższe, czasem porównywalne). DLSS 3 na pewno nie będzie w początkowym stadium idealnym rozwiązaniem, ale tak jak na początku drogi pierwszej iteracji tej techniki, spodziewamy się stopniowych usprawnień. Wręcz kosmiczny wzrost wydajności to duży as w rękawie NVIDII, który może (słusznie) zachęcić do zakupu RTX-a 4090 czy jakiejkolwiek innej karty z serii RTX 4000.

Dowiedz się więcej o zaletach i działaniu DLSS 3: DLSS 3 czyni cuda. Nowy poziom wydajności w grach na wyłączność RTX 40

Niestety, nowości nie było dane nam przetestować, ale w przyszłości na pewno powrócimy do tematu DLSS 3 i wzbogaconego ray tracingu na kartach RTX 4000.

Pobór mocy i temperatury RTX 4090

GeForce RTX 4090 jest bez żadnych wątpliwości bestią. Według oficjalnej specyfikacji domyślny współczynnik TGP wynosi 450 W, czyli dokładnie tyle, ile w RTX-ie 3090 Ti, a o 100 W więcej niż w RTX-ie 3090. Mamy do czynienia z dużym progresem w wydajności na wat, co jest zasługą zmian w architekturze i przede wszystkim niższego, 5-nanometrowego procesu technologicznego. Karta podczas dużego obciążenia bez problemu jednak przekracza 500 W. To w końcu kolos, który łapczywie pożąda energii.

Podczas rozgrywki w Cyberpunku 2077 osiągał 523 W, natomiast w bardziej obciążającym GPU benchmarku FurMark w teście 4K dobijał do aż 578 W. Można było się domyślić, że taka moc nie bierze się z niczego. Należy jednak mieć na uwadze, że pobór energii RTX-ów 3090 (Ti) bywa podobny podczas najwyższego obciążenia, a nawet wyższy. A mowa o kartach, które operują na innym poziomie wydajności.

Sprawdź: Jaki zasilacz do GeForce RTX 4090? Czy wymaga PSU z nowym złączem zasilania?

Podczas testów w grze rdzeń graficzny rozpędzał się do ponad 2,8 GHz (rzeczywiste wartości są zawsze wyższe niż podawane przez producentów taktowania w trybie boost). To znacznie przekracza maksymalne wartości, jakie osiągały RTX-y 3000, co też niekorzystnie wpływa na pobór energii. Mimo to RTX 4090 miło zaskakuje, i nie tylko pod tym względem.

Kultura pracy

Karta pobiera dużo energii, a co za tym idzie – wydziela spore dawki ciepła, więc jak poradziło sobie trzywentylatorowe chłodzenie IceStorm 3.0 w modelu ZOTAC Gaming GeForce RTX 4090 AMP Extreme AIRO? Temperatury podczas wymagającego gamingu osiągały 65 stopni Celsjusza (75,5°C Hot Spot), a więc są stosunkowo niskie, jak na takiego potwora.

Przy czym, co ważne, testy odbywały się na komputerze bez obudowy, więc podczas tradycyjnego użytkowania będą one wyższe. O ile? To już zależy od (typu) obudowy, wentylatorów i przewiewności. Karta jest wielka, a chłodzenie masywne, więc skutkuje to dobrymi temperaturami.

chłodzenie zotac rtx 4090 amp extreme

Ważne są jednak także prędkości wentylatorów, bo co z tego, że GPU nie grzeje się, jeśli obroty wskakują na taki poziom, że chce się wyłączyć grę i wyrzucić kartę z obudowy? Na szczęście nie w przypadku ZOTAC Gaming GeForce RTX 4090 AMP Extreme AIRO, które osiąga wtedy zaledwie 1300 obrotów na minutę. Jest to naprawdę świetny wynik – model cechuje się wysoką kulturą pracy i jest godny polecenia. Trudno jest jednak być zdziwionym – tego właśnie oczekuje się po konstrukcji z wyższej półki, na którą musisz wydać ponad 10 tysięcy złotych.

Podsumowanie testu GeForce RTX 4090. Spektakularny nokaut RTX-a 3090 Ti

Wbrew pozorom GeForce RTX 4090 jest… najbardziej opłacalną kartą graficzną RTX 4000 z dotychczas zapowiedzianych przez NVIDIĘ. Jakkolwiek absurdalnie to brzmi, tak właśnie jest, patrząc na specyfikację wszystkich modeli i wydajność topowej konstrukcji.

GeForce RTX 4090 to prawdziwe monstrum, którego moc trudno opisać w słowach. Owszem, pożera dużo energii, ale ten nadmierny apetyt uzasadniony jest kosmiczną wydajnością. Płynność w topowych grach, jaką uzyskuje się w rozdzielczości 4K, sięga podniebnych rejonów. A tego się właśnie oczekuje po karcie graficznej tej klasy.

zotac geforce rtx 4090 amp

Owszem, cena jest wysoka, nawet bardzo, ale to półka, która zawsze odskakiwała od reszty stawki pod tym względem. Ceny RTX-ów 4090 zaczynają się od 9699 zł (NVIDIA podwyższyła je w ostatniej chwili o 300 zł…), a recenzowany model ZOTAC-a kosztuje 10,5 tys. zł. Podwyżka względem RTX-a 3090 (Ti) okazała się i tak (znacznie) mniejsza niż w przypadku RTX-ów 4080 względem RTX-a 3080 (i de facto także RTX-a 3070…). To wszystko wpływa na lepszą opłacalność wyższego modelu.

Jeśli szukasz absolutnie bezkompromisowej wydajności niezależnie od budżetu i masz w komputerze mocny procesor, który dotrzyma kroku RTX-owi 4090, nie będziesz zawiedziony możliwościami architektury NVIDIA Lovelace. Recenzowana karta graficzna zapewnia nowe szczyty wydajności i pozostawia poprzedni model daleko w tyle. To także inwestycja w przyszłość (DLSS 3, RT Overdrive), ale niestety bardzo kosztowna.

Minusy

  • bardzo wysoka cena
  • brak złącza DisplayPort 2.0

Plusy

  • nowa architektura w niższym procesie technologicznym (4N TSMC)
  • kosmiczna wydajność; karta idealna do 4K
  • duży wzrost wydajności względem RTX-a 3090 (Ti)
  • nowe generacje rdzeni RT i Tensor
  • obsługuje imponująco zapowiadające się DLSS 3 i kodek AV1
  • mimo wysokiego poboru mocy niezła efektywność energetyczna i kultura pracy

Ocena redakcji

9/10
PL - Rekomendacja PL - Geextra produkt