Mamy koniec 2024 roku, który miał do zaoferowania nie tak mało pod kątem premier nowych, wyczekiwanych tytułów. Nie do końca o tym jednak ten artykuł, a bardziej o tym, co udowodnił mijający rok w kontekście technik upscallingu – DLSS, FSR, czy XeSS. Coraz bardziej jest bowiem widoczne, że rozwój tych technologii, nie służy rynkowi gier, jak i podzespołów komputerowych.
Wiele osób – tak związanych z branżą, jak i zwykli gracze – zauważa, że postęp w kontekście oprawy graficznej, czy optymalizacji w dużej mierze wyhamował. Można powiedzieć, że nie widać z roku na rok coraz to lepszych efektów wizualnych, mało tego, jednocześnie wymagania gier… rosną. Co poszło nie tak? DLSS, FSR, XeSS – mówi Wam to coś?
Na początek zaznaczę, że jest to bardzo subiektywny tekst, w którym podzielę się z Wami moimi przemyśleniami dotyczącymi tego, dlaczego tak wiele gier obecnie „nie dojeżdża” pod kątem optymalizacji, czy wrażeń wizualnych z rozgrywki. Skoro to już wiadome, to przejdźmy dalej.
Nieco historii
Musimy się cofnąć tutaj dosyć sporo, bo prawie o dekadę. W latach 2014-2019 wychodziły bowiem praktycznie ostatnie tytuły AAA, które nie posiadały zaimplementowanego Ray Tracingu – który to miał być (a w zasadzie, mimo wszystko, trzeba przyznać, że był) swego rodzaju rewolucją w tym, jak dzisiaj wyglądają wysokobudżetowe produkcje. Można wymienić więc GTA V na PC, czy naszego Wiedźmina 3: Dziki Gon.
Temu pierwszemu nie można zarzucić tego, że miał kartoflaną grafikę, jednak był również bardzo dobrze zoptymalizowany. Naprawdę wiekowe na tamten moment sprzęty były w stanie zaoferować całkiem przyjemną rozgrywkę w tym tytule. Wiesiek z kolei był już nieco inną historią, nad którą rozpływano się głównie z uwagi na – jak na tamte czasy – naprawdę ładną szatę graficzną. Był także wymagający, ale raczej nie zarzucano mu tego, by nie był dobrze zoptymalizowany.
Końcem 2018 roku zostało to zmienione za sprawą pamiętnej dla fanów tej serii premiery, w postaci Battlefielda V, który jako pierwsza gra, miał zaimplementowany Ray Tracing właśnie. Nieodłącznym jego elementem stała się też pierwsza wersja DLSS, czyli dziś bardzo dobrze znanej techniki upscallingu. Obydwie te technologie, wykorzystują nowe rdzenie w niedawno zaprezentowanej serii kart graficznych NVIDIA GeForce RTX 20, czyli rdzenie Tensor. Wówczas oczywiście nie było wiadome, czy całość się przyjmie, jednak tak duża firma, jak NVIDIA, nie mogła sobie pozwolić na blamaż w tej kwestii – i nie pozwoliła, co widzimy dzisiaj.
Pierwsze gry z duetem RT + DLSS
Oczywiście, na Battlefield V się nie skończyło, chociaż grupa producentów gier komputerowych, która ochoczo korzystała z tych dwóch technologii, nie była duża. Z mojego punktu widzenia, rynek początkowo podchodził do nich zwyczajnie sceptycznie. DLSS debiutuje w lutym 2019 roku, dołączając do RT w BF’ie oraz ostatniego rozdziału popularnej sagi post apokaliptycznej, czyli Metro Exodus.
Tamten rok został zamknięty – w kontekście premiery z DLSS-em i RT jednocześnie – przez Control, który to tytuł nie do końca miał tę technikę upscallingu tak samo zaimplementowaną. Specjalnie dla niego bowiem, NVIDIA stworzyła DLSS 1.9, który nie potrzebował sprzętowej akceleracji. Mówiąc prościej – nie potrzebował rdzeni Tensor, jak w przypadku dwóch pierwszych tytułów.
Warto wspomnieć także gry, które na premierę nie dały się skusić na implementację tego duetu. Jest to choćby Red Dead Redemption 2, które dopiero 2 lata później – w 2021 roku – dostanie oficjalnie DLSS, aczkolwiek Ray Tracing nadal pozostanie opcją, którą zaimplementowali modderzy. Te gry – moim zdaniem – nie miały widocznych braków w kontekście optymalizacji, a do tego oferowały naprawdę dobrą szatę graficzną. Przede wszystkim wskazuję tutaj na Metro i RDR 2.
DLSS 2.0 i szybki rozwój
Kluczem był tutaj DLSS 2 który mocno różnił się od pierwowzoru, choć założenia nadal były takie same. Przede wszystkim, AI nie potrzebowało uczyć się każdej gry, co uprościło implementację oraz zwiększyło wydajność. Wydajność w tym wypadku liczyć można w kontekście zyskanych klatek, ale także tego, jak wypadała jakość obrazu.
Control był jedną z pierwszych gier, która otrzymała nową wersję. Do kolejnych zaliczyć należy Wolfenstein: Youngblood, czy – mniej znane – Deliver Us The Moon. Od tego czasu ilość gier, które decydowały się na implementację tak DLSS, jak i Ray Tracingu rosła, aż do momentu, gdy było to wyznacznikiem gier AAA.
Mała dygresja – nie zapominajmy oczywiście o FSR, które goni(ło) DLSS, będąc jednak dużo szerszym rozwiązaniem, nieograniczonym sprzętowo. To samo powiedzieć można o XeSS.
Co w takim razie dostaliśmy przez ostatnie parę lat w rozwoju grafiki oraz optymalizacji?
W zasadzie, to głównie producenci gier komputerowych, nakłady położyli w implementacji owego Ray Tracingu i można odnieść wrażenie, że jakość tekstur od dobrych paru lat się zwyczajnie nie zmienia na plus. Ewentualnie zmienia się w tak wolnym tempie względem poprzedniej dekady, że ciężko to zauważyć.
Pojawił się bowiem chociażby jeszcze Path Tracing, czyli jeszcze bardziej zaawansowane śledzenie promieni, które jednak jest na tyle słabo zoptymalizowane, że zarezerwowane jest (i to raczej z pomocą DLSS 3 oraz generatora klatek) dla najmocniejszych kart graficznych, kosztujących tyle, co nie najgorszy PC. Nie neguję tego, że cała technologia może robić wrażenie, bo przy odpowiedniej scenerii oraz implementacji, dodaje klimatu, co widać na przykładzie Cyberpunka właśnie.
W tym roku grą, której należy się uznanie za to, jak wygląda, jest zdecydowanie Black Myth: Wukong. Dochodzimy tutaj jednak do bardzo ważnego pytania – czy jest to jednak rewolucja, porównując z innymi grami AAA, które miały premierę na przestrzeni ostatnich +/- 5 lat?
Moim zdaniem – nie i tutaj pojawia się problem
Dostajemy nadal co prawda gry, które swoją szatą graficzną mogą nas zadowalać, ale nie oferują znacząco więcej od produkcji sprzed paru lat. Składa się na to jakość:
- Tekstur;
- Fizyki;
- Cieni i światła;
- Itp.
Przede wszystkim myślę, że zastój widać właśnie w tej pierwszej sferze, czyli jakości tekstur w grach.
Fizyka także w wielu tytułach, które są z kategorii AAA, nie rozwinęła się jakoś mocno, a czasem wręcz można odnieść wrażenie, iż zaliczyła regres. Jedynie w aspekcie wprowadzenia RT można upatrywać postępu, któremu nie da się zaprzeczyć. Wymagania gier jednak rosną z każdym rokiem, pomimo braku rozwoju szaty graficznej, dlaczego?
Jednym z powodów jest zdecydowanie rozwój i popularyzacja właśnie upscallingu w postaci (obecnie) DLSS 3, FSR 3, czy XeSS 2.
Jak myślicie – czy mając świadomość, że właśnie takie techniki są, to producenci gier będą wydawali większe, czy mniejsze budżety gier na optymalizację całości? Myślę, że odpowiedź jest raczej jasna jak słońce.
To jednak jest wątek samych w sobie gier, w których przypadku całość jest bardziej złożona, jednak na dogłębną analizę problemu czas przyjdzie może kiedyś w obszernym artykule na ten temat, a nie jedynie takim, który zawiera moje przemyślenia.
Rynek GPU też cierpi
Rozwój kart graficznych także – szczególnie w kontekście średniej oraz niskiej półki cenowej – nie ma się zbyt dobrze. Najlepiej widać to poprzez fakt, że ilość pamięci VRAM na przestrzeni ostatnich lat prawie się nie zmienia w kolejnych iteracjach GPU od Zielonych i Czerwonych, chociaż w przypadku tych drugich – to raczej można mieć mniejszą liczbę uwag w tym zakresie.
RTX 3060 oferujący 12 GB VRAM był jedynie ciekawostką, bo jego wnuk w postaci RTX-a 5060, ma zaoferować jedynie 8 GB. Zdarzają się także kwiatki, gdzie bezpośredni następca jednego GPU z poprzedniej generacji, praktycznie w ogóle nie jest od niego wydajniejszy.
Taka sytuacja miała miejsce w przypadku RTX-a 4060 Ti, który niewiele wydajnościowo różnił się od RTX-a 3060 Ti. Naprawdę różnice były marginalne. Może to przez coraz to węższą szynę danych, czy obcinanie innych obszarów specyfikacji – ale kto to wie? Taki stan rzeczy jednak był w przypadku zwykłej rasteryzacji – czyli bez korzystania z technik upscallingu. Dzięki bowiem temu, że RTX 4060 Ti obsługuje DLSS 3 z generatorem klatek, a 3060 Ti – już nie. Dlatego oferuje wyższą wydajność, chociaż nie do końca.
Żeby jednak nie było
DLSS, FSR, czy XeSS to nie są technologie (jako całość), które są złem wcielonym – co to, to nie. Widać jednak, nawet w luźnym przyjrzeniu się temu, co się dzieje z rynkiem gier komputerowych (jakość grafiki / optymalizacja) oraz kart graficznych (postęp wydajnościowy), że mogą one mieć rzeczywiście negatywny wpływ na tę rzeczywistość. Cloud Gaming w tym wszystkim też oczywiście jest, jednak to nie temat na ten wpis.
W każdym razie – myślę, że jeżeli chcemy mniejszej ilości gier, które optymalizować muszą modderzy, czy zwyczajnie lepszych kart graficznych, które nie będą okrajane względem poprzedników, to mamy bardzo dobre ku temu narzędzie. Nazywa się ono wyborem. Zamiast kupować na premierę – kup na jakiejś dobrej promocji. Jeżeli nie potrzebujesz – nie kupuj. A już na pewno – w przypadku gier – nie zamawiaj preorderów.
I z takim przesłaniem myślę, że Was zostawię, na tę końcówkę 2024 roku. Mam nadzieję, że 2025 będzie wyglądać lepiej, nie tylko rzecz jasna w kontekście tematu tego artykułu, ale w ogóle. Tego życzę sobie i Wam.
Cya!
Niektóre odnośniki na stronie to linki reklamowe.
Dodaj komentarz