07-18-2015, 04:21 PM
(Ten post był ostatnio modyfikowany: 07-18-2015, 04:33 PM przez cesarz cyberprzestrzeni.)
Pytanie jest dość złożone więc może zacznę od tego, że różne myszy różnie reagują na zmianę wartości hz. Bardzo często, zwłaszcza starszych myszach Zowie 500 hz skutkuje lepszą responsywnością. Niższe wartości są zazwyczaj bardziej stabilne, przy mniejszych wartościach może występować również mniejszy smoothing, jak między innymi w razerze abyssusie czy właśnie myszach zowie na sensorze a3090, co za tym idzie mniejszym input lagiem. Odwrotną sytuację zauważyłem w roccatach, gdzie przy 1000 hz nawet lekko niestabilnym mysz chodzi równiej i wydawało mi się, że sensor reaguje odrobinę szybciej.
Kolejny aspekt, gdy 1000/500 hz nie wplywa na pracę sensora i tu nie tyle zwiększa się input lag przy 500 hz względem 1000, co zmienia się różnica maksymalnego i minimalnego input laga, przykład: przy 500 hz raport myszki trafia idealnie na moment, gdy karta graficzna pobiera dane do renderingu klatki i input lag między myszą a kartą (nie licząc czasu potrzebnego na przebycie sygnału z usb do karty) jest zerowy. W odwrotnej sytuacji sygnał trafia 1.9999 ms przed kolejną klatką renderowaną przez kartę, a następny report myszy już nie zdąży na cykl, więc input lag wyniesie te 1.9999 ms. Gdyby było to 1000 hz to do karty trafiłby kolejny report myszy wysłany 1 ms później czyli opóźnienie wyniosłoby 0.9999 ms. Tak więc 1000 hz względem karty graficznej generuje różnicę opóźnień na poziomie 0-1 ms a 500 hz na poziomie 0-2 ms, co to w praktyce oznacza?
Przetwarzanie informacji z sensora w optymalnych warunkach wyniesie nie mniej niż 1ms, do tego droga sygnału z usb do karty - dodajmy kolejny 1 ms, następnie czas renderingu klatki zależny od liczby maksymalnych osiągalnych fpsów ( i tutaj odnośnie kolejnego pytania, jeżeli 1000 hz zwiększa ci czas renderowania klatki o więcej niż 1 ms, to 500 hz da ci mniejszego input laga, czyli: jeśli wyciągasz 500 fps na myszy 500hz , a na 1000hz fps spadnie poniżej 333, to 500 hz będzie szybsze, itp), czas renderowania będzie wynosił 1000 dzielone przez liczbę maksymalnych osiągalnych fps (nie mylić z tymi ustawionymi w grze jako max fps). Załóżmy, że wyciągasz 333 fps czyli 3 ms opóźnienia, dalej standardowe opóźnienie monitora lcd - 5 ms i do tego różnica opóźnień wynikająca z braku synchronizacji renderowania klatek i częstotliwości odświeżania, dla 75 hz i maxfps w grze wynoszącym 100 będzie to dodatkowo od 0 do 10 ms. Finalnie będą to różnice rzędu 10-22ms dla 500 hz i 10-21 ms dla 1000 hz (całość bardzo uprościłem i całkowite opóźnienie dla podanego układu jest zaniżone) więc jeżeli jesteś w stanie ogarnąć ten szajs który tu napisałem, to widzisz, że jest to różnica mniejsza niż 5% całkowitego opóźnienia ruchu myszy względem obrazu na monitorze czyli praktycznie nic.
Jeżeli coś pomyliłem, to proszę o poprawienie.
Kolejny aspekt, gdy 1000/500 hz nie wplywa na pracę sensora i tu nie tyle zwiększa się input lag przy 500 hz względem 1000, co zmienia się różnica maksymalnego i minimalnego input laga, przykład: przy 500 hz raport myszki trafia idealnie na moment, gdy karta graficzna pobiera dane do renderingu klatki i input lag między myszą a kartą (nie licząc czasu potrzebnego na przebycie sygnału z usb do karty) jest zerowy. W odwrotnej sytuacji sygnał trafia 1.9999 ms przed kolejną klatką renderowaną przez kartę, a następny report myszy już nie zdąży na cykl, więc input lag wyniesie te 1.9999 ms. Gdyby było to 1000 hz to do karty trafiłby kolejny report myszy wysłany 1 ms później czyli opóźnienie wyniosłoby 0.9999 ms. Tak więc 1000 hz względem karty graficznej generuje różnicę opóźnień na poziomie 0-1 ms a 500 hz na poziomie 0-2 ms, co to w praktyce oznacza?
Przetwarzanie informacji z sensora w optymalnych warunkach wyniesie nie mniej niż 1ms, do tego droga sygnału z usb do karty - dodajmy kolejny 1 ms, następnie czas renderingu klatki zależny od liczby maksymalnych osiągalnych fpsów ( i tutaj odnośnie kolejnego pytania, jeżeli 1000 hz zwiększa ci czas renderowania klatki o więcej niż 1 ms, to 500 hz da ci mniejszego input laga, czyli: jeśli wyciągasz 500 fps na myszy 500hz , a na 1000hz fps spadnie poniżej 333, to 500 hz będzie szybsze, itp), czas renderowania będzie wynosił 1000 dzielone przez liczbę maksymalnych osiągalnych fps (nie mylić z tymi ustawionymi w grze jako max fps). Załóżmy, że wyciągasz 333 fps czyli 3 ms opóźnienia, dalej standardowe opóźnienie monitora lcd - 5 ms i do tego różnica opóźnień wynikająca z braku synchronizacji renderowania klatek i częstotliwości odświeżania, dla 75 hz i maxfps w grze wynoszącym 100 będzie to dodatkowo od 0 do 10 ms. Finalnie będą to różnice rzędu 10-22ms dla 500 hz i 10-21 ms dla 1000 hz (całość bardzo uprościłem i całkowite opóźnienie dla podanego układu jest zaniżone) więc jeżeli jesteś w stanie ogarnąć ten szajs który tu napisałem, to widzisz, że jest to różnica mniejsza niż 5% całkowitego opóźnienia ruchu myszy względem obrazu na monitorze czyli praktycznie nic.
Jeżeli coś pomyliłem, to proszę o poprawienie.