Czym jest DLSS 3? Jak działa i do czego służy? Wyjaśniamy mechanikę działania DLSS – jego zalety i wady. Jesteś ciekaw, jak działa DLSS 3 Frame Generation? W jaki sposób podnosi nawet dwukrotnie wydajność w grach? A może obawiasz się, czy taki zysk wydajności nie jest okupiony pogorszeniem jakości obrazu lub innymi problemami? W tym artykule znajdziesz odpowiedź na powyższe pytania oraz inne wątpliwości dotyczące NVIDIA DLSS 3, wprowadzone w kartach NVIDIA GeForce RTX 4000, które są oparte na nowej architekturze Ada Lovelace.
Spis treści:
Hasło DLSS od wielu już generacji kart graficznych NVIDII kusi „darmowym” przyrostem klatek generowanych na sekundę. Za skrótem tym stoi angielska fraza Deep Learning Super Sampling, co można przetłumaczyć jako technikę próbkowania obrazu z wykorzystywaniem uczenia głębokiego (podkategorii uczenia maszynowego).
Oczywiście zadaniem karty graficznej od zawsze było generowanie klatek obrazu, ale tradycyjnie w tym celu używana jest cała armia jednostek obliczeniowych, które zgodnie z (pośrednimi) instrukcjami silnika gry obliczają wygląd całej sceny. DLSS 3 w tym procesie jest całkowicie nieobecny. Jego rola zaczyna się, gdy karta wygeneruje już klatkę (a w zasadzie dwie nowe klatki, ale o tym za moment), ponieważ to na jej podstawie zupełnie inne jednostki (NVIDIA Tensor, które znajdziemy tylko na kartach NVIDIA GeForce RTX) z użyciem algorytmów sztucznej inteligencji generują nową, dodatkową klatkę obrazu.
Brzmi to dosyć skomplikowanie, ale w istocie proces jest banalnie prosty. Karta NVIDIA GeForce RTX 4000 na podstawie każdych dwóch sąsiadujących klatek obrazu generuje dodatkową klatkę, która powinna zostać wstawiona pomiędzy tymi źródłowymi, gdybyśmy mieli dwukrotnie szybszy sprzęt.
Nieco bardziej skomplikowany jest proces, który pozwala faktycznie tworzyć takie pośrednie klatki. Nowe karty NVIDIA GeForce RTX 4000 specjalnie na potrzebę działania tej funkcji zostały doposażone w akcelerator przepływu optycznego (składowa część rdzeni Tensor czwartej generacji). Służy on do analizowania przepływu optycznego obiektów, czyli mówiąc prościej – do sprawdzenia, jakie z wyświetlanych obiektów na analizowanych klatkach uległy przemieszczeniu.
Tutaj dochodzimy do bardzo istotnego aspektu działania funkcji NVIDIA DLSS 3 – wektory ruchu muszą być porównywane na dwóch sąsiadujących klatkach, zatem wyświetlanie obrazu zostaje opóźnione w oczekiwaniu na wygenerowanie (przez resztę karty) kolejnej klatki, co zwykle trwa od 8 ms (120 FPS) do 33 ms (30 FPS). Karta w czasie rzeczywistym generuje dodatkową klatkę, jednocześnie wyświetlając pierwszą z tych wcześniej analizowanych i analizując kolejną parę. Jak widać, NVIDIA DLSS 3 robi całkiem sporo w tle, a to wszystko wykonuje się równocześnie z tradycyjnym generowaniem obrazu.
Aby uniknąć widocznych strat na jakości obrazu karta posiłkuje się algorytmami, które powstały z pomocą sztucznej inteligencji na serwerach obliczeniowych NVIDII, stanowiących sieć neuronową. To właśnie na tych serwerach odbywa się tytułowe głębokie nauczanie poprzez analizowanie niezliczonej ilości obrazów właśnie pod kątem tego, co potem wykonują wektory ruchu obsługiwane przez lokalny akcelerator przepływu optycznego.
Podsumowując zatem:
W przeciwieństwie do klasycznych metod interpolacji ruchu (spotykanych np. w telewizorach) technologia NVIDIA DLSS 3 działa znacznie precyzyjniej i obliczenia wykonuje w czasie rzeczywistym (redukując do minimum dodatkowe opóźnienia). W efekcie DLSS 3 pozwala zwykle podwoić ilość wyświetlanych klatek na sekundę.
Technika DLSS 2 jest zasadniczo bezpośrednim rozwinięciem DLSS 1 – obie pierwsze wersje DLSS oferowały tylko funkcję Super Resolution. To nic innego, jak upscaling realizowany z użyciem algorytmów, które wyszkoliła sieć neuronowa. Karta graficzna generuje w tym przypadku obraz w niższej rozdzielczości niż natywna dla naszego monitora, a następnie rdzenie Tensor w kartach NVIDIA GeForce RTX wykorzystują wspomniane algorytmy, aby uzyskać obraz najbardziej zbliżony do tego generowanego w pełnej rozdzielczości.
Nowsza wersja DLSS (2.0) przeniosła obliczenia sztucznej inteligencji na potężne serwery offline i sama karta zajmuje się już tylko stosowaniem wcześniej przygotowanych przez ową SI algorytmów. Efektem jest oczywiście wzrost wydajności, wynikający z generowania sceny w niższej rozdzielczości, podczas gdy w praktyce finalna jakość obrazu ma pozostać bez zmian. W tej kwestii DLSS 1.0 pozostawiał bardzo wiele do życzenia, zwłaszcza na intensywnie ruchomych obiektach oraz w przypadku powierzchni półprzeźroczystych.
DLSS 2 nie tylko poprawił działanie upscalingu w tych krytycznych aspektach, ale również zaoferował wygładzenie krawędzi dalece doskonalsze od powszechnie w grach stosowanego TAA i MSAA, czyniąc tym samym z DLSS 2 sposób na podniesienie zarazem wydajności, jak i jakości obrazu – przynajmniej w przypadku wysokich profili jakości. Tak się bowiem składa, że zwykle do naszej dyspozycji mamy trzy lub cztery profile, które bezpośrednio określają bazową rozdzielczość, z jakiej korzysta DLSS – mniejsza rozdzielczość oznacza wyższą wydajność, ale również pogorszenie jakości ostatecznie wyświetlanego obrazu.
Skoro już przypomnieliśmy sobie, jak działają pierwsza i druga wersja DLSS, to możemy przejść do porównania z DLSS 3, które jednocześnie możemy tutaj zakończyć. Tak jak wspomnieliśmy na wstępie, DLSS 3 jest nadbudową DLSS 2 i różni się obecnością nowej funkcji – Frame Generation. Co istotne, gry mogą korzystać jednocześnie z DLSS 3 Super Resolution, jak i DLSS 3 Frame Generation, tym samym jeszcze bardziej podnosząc wydajność albo raczej ilość wyświetlanych klatek. Wzrost wydajności w takim przypadku może sięgać nawet 300% (gra działa do 4x szybciej!).
Powyższy schemat dobrze podkreśla niezależność działania od siebie technologii obecnej już w DLSS 2 od DLSS Frame Generation. W praktyce możemy również zastąpić DLSS Super Resolution dowolną inną technologią Super Samplingu (np. NVIDIA DLAA) albo nawet poddać działaniu DLSS Frame Generation natywny obraz, co w szczególności przyda się w grach, których wydajność jest limitowana przez procesor, np. Microsoft Flight Simulator. W takim przypadku DLSS 2 nie wpływa na wydajność, podczas gdy DLSS 3 używany na GeForce RTX 4090 bez najmniejszego problemu zdubluje ilość FPS.
Wydajność w grach reprezentowana jest zazwyczaj w formie ilości klatek na sekundę, co aż do momentu zadebiutowania NVIDIA DLSS 3 było słusznym podejściem. Gra generująca więcej klatek oferowała płynniejszy obraz (animację) oraz wyższą responsywność (wymianę informacji z silnikiem gry). NVIDIA DLSS 3 Frame Generation bez wątpienia drastycznie podnosi płynność animacji, ale wydajności jako takiej nie zmienia – gra nadal renderuje klatki tak samo szybko, jak bez jej użycia (a w specyficznych przypadkach robi to nawet wolniej).
Nasze oczy zatem widzą znacznie płynniejszą animację, ale nasze ręce operujące myszką i klawiaturą nadal komunikują się z silnikiem gry, który o dodatkowych klatkach nic nie wie. Szczęśliwie nasze oczy są znacznie bardziej w tej kwestii wrażliwe i zasadniczo, jeżeli gra jest w stanie wygenerować przynajmniej 50-60 FPS, to złudzenie dwukrotnie większej wydajności oferowanej przez DLSS 3 Frame Generation jest bardzo przekonujące.
Obraz generowany przez rdzenie NVIDIA Tensor w ramach działania funkcji DLSS 3 Frame Generation w całości powstaje z użyciem AI, zatem można mieć obawy co do jego jakości. Okazuje się, że całkowicie słusznie, ponieważ nie jest to obraz idealny i są sytuacje, w których dodatkowa klatka prezentuje obraz pełen różnych artefaktów. Brzmi strasznie, ale czy w praktyce jest to dostrzegalne? Otóż „to zależy”…
Błędy generowania obrazu przez DLSS 3 Frame Generation należy podzielić na dwa typy. Pierwszy, który zwykle jest niemożliwy do dostrzeżenia, dotyczy sytuacji, w której całkowicie zmienia się kadr w grze (np. zmiana widoku z pierwszoosobowego na trzecioosobowy albo cięcia w cutscenkach renderowanych przez silnik gry). W tym przypadku wektory ruchu silnika gry między dwiema klatkami zmieniają się do tego stopnia, że algorytmy przepływu optycznego się całkowicie gubią i powstaje klatka, która niczego nie przypomina.
W tym przypadku jednak mówimy o dosłownie jednej klatce spośród 100-200 takich klatek wyświetlanych w każdej sekundzie (w przypadku GeForce RTX 4090) – nie jest to coś, czego dopatrzy się nawet najbystrzejsze oko.
Drugi typ artefaktów jest już nieco bardziej zauważalny, gdyż dotyczy ruchomego interfejsu użytkownika w grze. Mowa o wszystkich markerach, podpisach i innych oznaczeniach, które są nanoszone na wyświetlany obraz (np. podpisy zawodników na torze wyścigowym w F1 2022 albo informacja o odległości do lądowiska w Microsoft Flight Simulator).
Tutaj wektory ruchu zbyt mało precyzyjnie (w obecnej generacji) mapują takie szczegółowe obiekty, co prowadzi do ich mniejszego lub większego deformowania i/lub migotania. Jako że są to zwykle litery i cyfry, które potrafimy bardzo dobrze rozpoznawać, to z łatwością wychwytujemy przekłamania w ich generowaniu. Nie dotyczy to jednak każdej gry, czego nie można powiedzieć o jeszcze jednym aspekcie działania NVIDIA DLSS 3 Frame Generation – wrażliwości na niską płynność natywnie generowanego obrazu.
Ogólnie im mniej FPS, tym większy odstęp pomiędzy kolejnymi klatkami, a co za tym idzie, większe różnice w przemieszczeniach. W takim przypadku więcej roboty mają wektory ruchu silnika gry i nie zawsze uda się idealnie wygenerować klatkę pośrednią. Dodatkowo często przy dużych przemieszczeniach (pomiędzy klatkami) sztucznej inteligencji zwyczajnie będzie brakować informacji o tym, co powinna wyświetlić pomiędzy – te informacje ma silnik gry, ale się nimi nie dzieli.
Kolejnym istotnym kosztem używania NVIDIA DLSS 3 Frame Generation jest zwiększanie opóźnienia. Tak, jak już wspomnieliśmy, dodatkowe klatki nie powodują, że input lag spada, ale w praktyce ulega on nawet zwiększeniu, jako że rdzenie Tensor opóźniają wyświetlanie obrazu o czas generowania pojedynczej klatki (przykładowo o dodatkowe 16,6 ms dla 60 FPS).
Tutaj do akcji wkracza trzecia składowa pakietu DLSS – NVIDIA Reflex. Wykorzystując tę technologię możemy zsynchronizować pracę karty graficznej i procesora, aby całkowicie zniwelować opóźnienie wynikające z kolejki renderowania. Dzięki temu w zasadzie równoważymy wzrost opóźnienia, wynikający z działania DLSS 3. Oczywiście z NVIDIA Reflex możemy (i powinniśmy) korzystać niezależnie od używania DLSS 2 lub 3.
Jak to wygląda w praktyce? Wyobraźmy sobie, że nasz GeForce RTX 4090 generuje w grze Cyberpunk 2077 około 42 FPS, co przekłada się na 64 ms opóźnienia(z aktywnym NVIDIA Reflex – bez niego jest to bliżej 100 ms). Aktywowanie DLSS 2 (Super Resoultion w trybie Jakość) podnosi wydajność do 72 FPS i w rezultacie obniża opóźnienia do 47 ms. Jeżeli dodatkowo aktywujemy jeszcze DLSS 3 (Frame Generation), to licznik FPS pokaże nam 112 FPS, ale opóźnienia podniosą się do 63 ms. Innymi słowy mamy płynność animacji na poziomie 112 FPS, ale samo sterowanie i reakcja gry przebiega identycznie, co przy wyjściowych 42-43 FPS (z aktywnym w obu przypadkach NVIDIA Reflex).
Jaki z tego wniosek? DLSS 3 Frame Generation jest całkowicie bezużyteczne dla graczy e-sportowych, dla których to właśnie te opóźnienia są najważniejsze.
Kolejna istotna do omówienia kwestia to współpraca technologii NVIDIA DLSS 3 Frame Generation z techniką synchronizacji pionowej (V-Sync). Aby uniknąć efektu rozrywania obrazu, związanego z brakiem synchronizacji generowanych klatek z odświeżaniem monitora, konieczne jest w tym przypadku używanie adaptacyjnego odświeżania. Klasyczna blokada FPS zupełnie nie działa z DLSS 3 i nowe karty graficzne GeForce RTX 4000 zdecydowanie trzeba łączyć z monitorami współpracującymi przynajmniej z trybem G-SYNC Compatible.
Biorąc pod uwagę, że DLSS 3 Frame Generation najlepiej działa (wizualnie i w kwestii opóźnień), gdy finalnie uzyskujemy 100 lub więcej FPS, to wysoce wskazane jest również używanie monitora z odświeżaniem 165-240 Hz (lub więcej). Wtedy realnie możliwe będzie wykorzystanie pełni potencjału funkcji NVIDIA DLSS 3 Frame Generation na nowych kartach GeForce RTX 4000.
Jeśli zastanawiasz się, jaka karta graficzna będzie najlepsza do gier, to na dzień powstawania niniejszej publikacji dostępne są trzy modele z rodziny GeForce RTX 4000, które w pełni obsługują DLSS 3. Są to:
W przyszłości do tego grona powinny dołączyć modele GeForce RTX 4070, GeForce RTX 4060 Ti oraz GeForce RTX 4050. Dodatkowo już teraz na rynek wprowadzane są laptopy z mobilnymi układami NVIDIA GeForce RTX 4000.
W przypadku tych najtańszych kart oraz modeli mobilnych obecność DLSS 3 może wydawać się wyjątkowo kusząca – ostatecznie to tam wydajność bazowa jest najniższa i generowanie dodatkowych klatek na sekundę z pomocą sztucznej inteligencji brzmi jak idealne rozwiązanie. Takim też w praktyce jest, przynajmniej tak długo, jak finalna ilość FPS przekracza 100.
Od strony wsparcia dla DLSS 3 Super Resolution lista tytułów jest identyczna, jak w przypadku DLSS 2 i uwzględnia niemal każdą nową grę od dużych wydawców – obecnie blisko 200 tytułów. Pełną listę znajdziecie zawsze na stronie NVIDIA. Gier obsługujących DLSS 3 Frame Generation jest obecnie znacznie mniej, ale lista szybko się rozrasta. Na ten moment zagrać z aktywnym generowaniem klatek możecie między innymi w takie hity, jak:
W najbliższym czasie listę tę dodatkowo zasilą kolejne duże tytuły, które w dużej mierze reprezentują najważniejsze premiery gier 2023:
Po kilku ciężkich latach związanych z problematyczną dostępnością (a co za tym idzie -wysokimi cenami) obecnie można realnie zakupić komputer wyposażony w kartę obsługującą technologię DLSS 3. Najdroższe zestawy wyposażone w kartę NVIDIA GeForce RTX 4090 są odczuwalnie droższe i trudniej dostępne, ale już schodząc do poziomu GeForce RTX 4080 realnie mamy w czym wybierać.
Przykładowo wśród poniższych modeli znajdziecie komputer do gier Komputronik IEM X713, który łączy w sobie właśnie GeForce RTX 4080 z bardzo szybkim Intel Core i7-13700KF i 32 GB DDR5.
Dla bardziej oszczędnych graczy polecamy spojrzeć w stronę komputerów z RTX 4070 Ti – przykładowo Komputronik IEM X513, w którym wspomnianego GeForce RTX połączono z 20-wątkowym Core i5-13600KF i 32 GB DDR5.
Powyższe zestawy z pomocą DLSS 3 bez problemu poradzą sobie w najnowszych grach z aktywnym Ray Tracingiem – czyli technologią odpowiedzialną za oświetlenie, cienie i odbicia renederowane przez grę.
Technologia DLSS 3 zadebiutowała razem z premierą kart NVIDIA GeForce RTX 4000 i od tego momentu jest intensywnie rozwijana. Sztuczna inteligencja odpowiedzialna za trenowanie algorytmów dopasowanych do już wydanych i dopiero planowanych gier stale działa nad udoskonalaniem jakości obrazu. Dzięki temu nowe gry (np. te oparte na Unreal Engine 5 ) od samej swojej premiery będą mogły oferować ten ogromny wzrost wydajności, albo raczej ilości klatek na sekundę bez istotnego wpływu na jakość obrazu na ekranie.
Nie da się ukryć, że DLSS 3 to potencjalnie najbardziej innowacyjna technologia zaprezentowana w 2022 roku – przynajmniej w branży kart graficznych. Na ten moment jej odpowiednik rozwijanej przez AMD techniki FSR jest dopiero etapie planowania i realnie bez sprzętowego wsparcia, jakie gwarantują karty graficzne NVIDIA GeForce RTX (w postaci rdzeni Tensor), nie ma dużych szans na zagrożenie DLSS 3.
Obecność DLSS 3 z pewnością otwiera furtkę do wykorzystywania monitorów ze znacznie wyższym odświeżaniem oraz do wyciskania jeszcze więcej z nowoczesnych silników graficznych (jak Unreal Engine 5) – ostatecznie w tych grach, stawiających na jakość oprawy, czas reakcji nie jest kluczowy, a DLSS 3 pozwoli podnieść dosyć przeciętne 40-50 FPS do 120-160 FPS. Tak wygląda technologia, na którą gracze od dawna czekali.
Mogą Cię zainteresować: