Do laptopów, komputerów i monitorów coraz częściej trafiają dwie stosunkowo młode technologie – NVIDIA G-Sync i AMD FreeSync. Czym są i jaki jest ich faktyczny wpływ na jakość obrazu?
Nawet najlepsza karta graficzna i wydajny monitor dla gracza nie pomoże, jeżeli sprzęt nie zostanie wsparty odpowiednią technologią. W ostatnich miesiącach mieliśmy już do czynienia z rewelacjami na temat DirectX 12, światu objawiło się także API o nazwie Vulkan, ale jednymi z najbardziej rozwijających się technologii są NVIDIA G-Sync i AMD FreeSync, którym poświęcimy niniejszy artykuł.
Spis treści
Mimo różnych nazw, obie technologie mają wspólny mianownik – umożliwiają wyeliminowanie szeregu różnorodnych problemów z wyświetlaniem obrazu. Różnica tak naprawdę pojawia się tylko w przypadku producenta – za stworzenie G-Sync odpowiada NVIDIA, z kolei FreeSync to dzieło konkurencyjnego obozu, AMD.
W jakim celu powstały technologie? Są one stworzone do przeciwdziałania zjawiskom, które bardzo często pojawiały się na ekranie w czasie zabawy z grami komputerowymi. Jednym z najpopularniejszych problemów, któremu przeciwdziałają, jest tzw. tearing, czyli rozrywanie obrazu. Polega on na przesuwaniu części obrazu względem innej, przez co krawędzi poszczególnych obszarów są nierówne, a sygnał wyświetlany jest z opóźnieniem, ze względu na brak korelacji częstotliwości odświeżania monitora z płynnością wyświetlania kolejnych klatek w poszczególnych tytułach.
Do tej pory sądzono, że tym problemom zaradzi synchronizacja pionowa, czyli popularny wśród graczy V-Sync. Jak się jednak okazuje a i owszem, radzi on sobie z eliminacją tearingu, ale przy okazji oferuje kolejne problemy z płynnością wyświetlania obrazu, z czego najpoważniejszym było solidne opóźnienie wyświetlania obrazu, co w przypadku osób często grywających w sieciowe FPS-y czy dynamiczne MOB-y takie jak chociażby popularne League of Legends stanowiło pole do niemałych frustracji. Często także możemy zaobserwować nienatualne zachodzenie jednej klatki na drugą – to regularnie skutkuje brakami w wyświetlaniu animacji. Potrzebne było więc nowe narzędzie, które pozwoli zapobiec wszystkim tym problemom w praktyce. Do tego wykorzystujemy właśnie G-Synca i FreeSynca.
To oczywiste – posiadać sprzęt, który będzie z nią współpracował. Najważniejsze rzecz jasna jest posiadanie odpowiednich kart graficznych obsługujących te narzędzia. W przypadku G-Synca na na pokładzie mogą znajdować się nawet przestarzałe karty graficzne, począwszy od GeForce GTX 650 Ti, z kolei osoby chcące wyposażyć się w technologię AMD będą musiały posiadać kartę graficzną z linii Radeon od R9 260 w górę. Widać więc wyraźnie, że zakres sprzętowy leży po stronie NVIDII, choć z drugiej strony – kto będzie korzystał z tej technologii, mając kartę graficzną sprzed dwóch generacji? Raczej nikt.
Drugi krok to posiadanie specjalnego, certyfikowanego monitora, który jest zdolny współpracować z kartami graficznymi i jednocześnie może przerzucić część odpowiedzialności za wyświetlanie obrazu właśnie na nie. Kłopot polega tutaj na zastąpienie standardowych skalerów odpowiedzialnych za odświeżanie obrazu specjalnymi, bardziej wydajnymi jednostkami będącymi w stanie go wygenerować pod większym obciążeniem. Jedyna różnica jest w tym, iż NVIDIA sprzedaje producentom monitorów gotowe skalery stworzone we własnych laboratoriach, z kolei AMD nieodpłatnie udostępnia producentom sprzętu możliwość konfiguracji sprzętu specjalnie na potrzeby FreeSynca. Jednym z modeli, które obsługują G-Synca jest np. testowany przez nas monitor Acer XB280HK,
Ostatnio coraz częściej na rynku pojawiają się także laptopy umożliwiające obsługę obydwu technologii. Całkiem niedawno HP zapowiedziało wprowadzenie linii laptopów współpracujących z technologią AMD FreeSync, z kolei G-Sync pojawia się w gamingowych laptopach MSi czy ASUSa, takich jak chociażby model ROG G752. W przypadku laptopów obostrzenia jeśli chodzi o obsługiwany układ graficzny są jednak zdecydowanie większe – G-Sync obsługuje bowiem zaledwie trzy układy mobilne: GTX 965M, 970M oraz 980M, z kolei w przypadku Radeonów spektrum układów się nie zmienia, są bowiem obsługiwane wszystkie mobilne wersje desktopowych układów graficznych. Nie da się więc ukryć, że technologia ta jest coraz bardziej popularna.
Uruchomienie G-Synca jest proste – do tego celu służą nam sterowniki dostarczane przez producentów. Zarówno w przypadku kart graficznych GeForce, jak i Radeon odpowiednie opcje znajdziemy w oprogramowaniu dołączanym do sterowników, nie ma więc najmniejszego problemu z tym, by skorzystać z ich dobrodziejstwa.
Warto jednak zwrócić uwagę na fakt, iż jednoczesne korzystanie z włączonej synchronizacji pionowej może powodować problemy z wyświetlaniem obrazu. W trakcie korzystania z tych technologii konieczne staje się więc zrezygnowanie z jednoczesnej obsługi V-Synca, co wydaje się być oczywiste z logicznego punktu widzenia – w końcu i G-Sync, i FreeSync nie tylko go zastępują, ale również eliminują problemy związane z korzystaniem z tego mocno wysłużonego narzędzia.
Oczywiście jak szereg innych technologii, również i te narzędzia nie są wolne od wielu różnorodnych przypadłości. Nie sposób zapomnieć o dość istotnej rzeczy w przypadku wielu popularnych produkcji posiadających wysokie wymagania sprzętowe – o ile AMD FreeSync nie obciąża dodatkowo komputera, tak w przypadku zastosowania G-Synca musimy liczyć się ze spadkiem płynności na poziomie od 3 do 5 procent. To może mieć spore znaczenie zwłaszcza w przypadku korzystania z G-Synca na starszych konstrukcjach z linii GTX 600 czy 700, gdzie często układy nie dają już rady z nowymi produkcjami i każda klatka jest praktycznie na miarę złota.
Z G-Synca możemy jednak śmiało korzystać, posiadając dwie karty połączone ze sobą w trybie SLI, z kolei w przypadku FreeSynca obsługa CrossFire praktycznie nie istnieje. Nie wyeliminujecie więc zjawiska tearingu i input lagu w komputerach, w których zamontowano dwie współpracujące ze sobą karty z rodziny Radeon. Nie da się ukryć, że to dość spore niedopatrzenie, które w przypadku wielu graczy korzystających z takich konstrukcji może mieć duże znaczenie.
Odbijając piłeczkę w kierunku G-Synca, warto zwrócić także uwagę na wachlarz złącz, które oferują nam monitory przystosowane do obsługi obydwu technologii. W przypadku sprzętów współpracujących z narzędziem NVIDII na tylnym panelu znajdziemy jedynie DisplayPort w wersji 1.2. Zupełnie inaczej sytuacja wygląda w przypadku modeli obsługujących Freesync – tam oprócz DisplayPorta możemy także skorzystać z HDMI czy DVI. Warto jednak zwrócić uwagę na fakt, że możliwości FreeSynca są i tak wykorzystywane tylko za pośrednictwem złącza DisplayPort, ale wykorzystywanie G-Synca praktycznie eliminuje możliwość podłączenia monitora w jakikolwiek inny sposób.
FreeSync wymaga też, by gra, w której próbujemy wyeliminować zjawiska tearingu czy input lagu, działały w odpowiedniej płynności – choć podawany przez AMD zakres częstotliwości wynosi od 9 do 240 Hz, w praktyce mamy do czynienia z działaniem tej opcji dopiero od około 40 Hz. Oznacza to w praktyce, iż gra musi działać w minimalnej prędkości 40 klatek na sekundę, co na starszych sprzętach np. w bardzo wymagającym Wiedźminie 3: Dziki Gon, może okazać się kwestią problematyczną. Znacznie lepiej w tej kwestii radzi sobie G-Sync, praktycznie nie robiąc żadnych problemów z obsługą słabiej działających produkcji.
Mimo, iż to dwie technologie, które oferują praktycznie te same możliwości, nie mamy szans korzystania z G-Synca na monitorze obsługującym FreeSync i odwrotnie. Posiadając kartę graficzną GeForce musimy poszukać monitora, który będzie oficjalnie certyfikowany przez NVIDIĘ – to samo tyczy się również AMD oraz FreeSynca. Szkoda, ale to element rywalizacji pomiędzy dwoma odwiecznie walczącymi obozami.
Jasne – zwłaszcza w przypadku graczy mamy do czynienia z technologią, która poprawia wrażenia płynące z rozgrywki, zwłaszcza jeśli chodzi o profesjonalne rozgrywki sieciowe. Nie da się ukryć, że w przypadku monitorów z długim czasem reakcji problem ten był bardzo zauważalny i w wielu przypadkach, zwłaszcza w kontekście mało płynnej rozgrywki, szalenie dawał się on we znaki. Dzięki tym technologiom zjawisko to odchodzi do lamusa, choć niestety wymaga od nas jednak pewnego rodzaju inwestycji, związanych głównie z wymianą monitora na nowszy model, który wspiera jedną z dwóch wybranych technologii.
Jeśli więc tylko mamy możliwość skorzystania z tych technologii, to sprawa jest oczywista – jest to narzędzie znacznie bardziej wydajne od synchronizacji pionowej, które wraz z upowszechnianiem się w kolejnych monitorach czy laptopach będzie w stanie oferować nam coraz bardziej żywy i szczegółowy obraz bez przekłamań i błędów w wyświetlaniu.
Niektóre odnośniki na stronie to linki reklamowe.
Komentarze
Mam pytanie do osób lepiej rozeznanych w rynku monitorów: czy istnieje coś takiego jak monitor z G-Sync, 1080p i jeszcze na matrycy IPS? Mój obecny jest na IPSie, więc przesiadka na TN mogłaby być bolesna. Jestem w stanie znaleźć tylko monitory 1440p, a w budzie siedzi GTX970, który świetnie sobie radzi z 1080p, ale nie uciągnie nowych gier w 1440p i 60 klatkach. Znajdzie się takie cudo czy będę musiał poczekać na nową generację kart graficznych?
Nie spotkałem się z takim rozwiązaniem, choć słyszałem o istnieniu takich matryc produkcji LG. Obawiam się, że albo czeka Cię przesiadka na nowy GPU, albo musisz zrezygnować z G-Synca i zerknąć w stronę "zwykłych" monitorów na IPS-ie.
IPSa już mam, karta też do słabych nie należy i nie będę jej zmieniał. Dzięki za odpowiedź, poczekam sobie na gsynca do nowej generacji kart :)