No Image

Частота обновления экрана монитора какая лучше

СОДЕРЖАНИЕ
2 просмотров
11 марта 2020


Человеческий глаз — удивительный орган: он может моментально сфокусироваться на любом предмете, будь он в полуметре от глаз, или в сотне метров. Он может различить даже небольшое движение на периферии зрения. Но при этом он, увы, инертен, и поэтому, если показывать человеку ряд картинок с определенной частотой, то начиная с определенного количества картинок в секунду нам будет казаться, что это уже не статичные изображения, а движение. Но вот вопрос — начиная с какой частоты так происходит?

Начнем немного издалека — с «технического устройства» глаза. В нем есть два типа чувствительных к свету клеток (фоторецепторов): это палочки и колбочки. Палочки отвечают за черно-белое зрение, но при этом у них низкая инертность. Колбочки же отвечают за цветное зрение, и их инертность выше. В человеческом глазу в центральной части много колбочек и мало палочек, а на периферии наоборот — превалируют палочки. Это разумно — менее инертные палочки могут заметить даже небольшое движение на границе зрения, ну а потом мы поворачиваем голову и смотрим, что же это за движение уже центральной частью, где много колбочек, и видим затаившегося льва в кустах . Но вот мониторов или телевизоров, которые полностью охватывают весь угол зрения, нет, поэтому мы в основном смотрим на него прямо, то есть в основном используются более инертные колбочки. Но вот насколько они инертны?

Первое мнение — 24 кадра в секунду хватит всем, и его очень любят киношники: ведь это позволяет им экономить пленку. Получился такой результат чисто экспериментально — это минимальный fps в видео, при котором оно все еще кажется нам видео, а не слайд-шоу. Но тогда почему 24 кадра в компьютерной игре кажется нам мало? Ответ прост — один кадр, снятый камерой, является суперпозицией всего происходящего, пока был открыт затвор. Иными словами, гоночная машина, при снятии ее камерой, выглядит так:

А вот в игре, где каждый кадр — это четко просчитанная видеокартой картина в каждый момент времени, любой скриншот будет выглядеть четко (если, конечно, размытие не сделано програмно).

Поэтому 24 fps в видео достаточно, так как каждый кадр имеет в себе информацию, позволяющую склеить его и с предыдущим, и с последующим. А вот в играх это не так, и 24 кадра в секунду там мало. Но сколько нужно fps в играх? Экспериментаторы решили пойти другим путем — не показывать человеку игру, постепенно увеличивая fps и спрашивая, стала ли она плавной. Они решили определить инертность глаза, то есть время, которое нужно ему для обработки информации об одном кадре. И оно оказалось около 20 мс, отсюда легко получается, что глазу для плавности достаточно 50 fps. И тут многие делают несколько неправильный вывод — ну если 50 fps достаточно, то возьму-ка я монитор с частотой в 60 Гц (с небольшим запасом) и буду любоваться плавной картинкой.

В чем же их ошибка? А ошибка в том, что fps и Гц это не одно и тоже — первое это кадры, которые отображает матрица, а второе — это количество поступающих на нее сигналов в секунду. Казалось бы, даже по определению это одно и то же. Но мы забываем про то, что у мониторов есть время отклика. К примеру, нам нужно изменить цвет с серого на темно-серый, и если мы подключим осциллограф, то увидим, что матрица «въезжает» в цвет аж 34 мс:

Но ведь если мы хотим получить 50 fps, то задержка должна быть не более 20 мс, а тут в полтора раза больше. Что это означает? А это означает то, что в динамических сценах мы никогда не увидим правильные цвета, потому что матрица банально не успеет в них «попасть» — кадры сменяются быстрее. Поэтому мы видим различные артефакты картинки в виде шлейфов и некорректных цветов.

Читайте также:  Как правильно чирон или широн

Но что если мы возьмем матрицу с частотой в 120 Гц и сравним с 60 Гц матрицей? Картина будет такая (кадры сделаны раз в 8.3 мс, что соответствует 120 Гц):

Хорошо видно, что белые шлейфы за объектами на 120 Гц значительно меньше. Более того — непопадания в цвет так же будут исчезать значительно быстрее, да и сами промахи цветопередачи будут меньше, так как теперь изменение яркости будет происходить не в один шаг, а в два, а чем меньше шаг — тем меньше промах. В итоге картинка на 120 Гц будет действительно казаться плавнее, но не из-за того, что человеческий глаз может воспринимать 120 fps, а из-за того, что на такой матрице будет гораздо меньше артефактов, и она быстрее реагирует на изменение картинки.

Имеет ли смысл повышать частоту еще выше — до 240 Гц к примеру? Имеет — это еще сильнее уменьшит шлейфы и промахи в цвете. Но на сегодняшний день системы, которые могут выдавать в современных играх в FHD 240 кадров в секунду стоят очень дорого, поэтому пока что такие мониторы не нужны. А вот 120 fps уже способна выдать не самая дорогая из современных видеокарт Nv >


Человеческий глаз — удивительный орган: он может моментально сфокусироваться на любом предмете, будь он в полуметре от глаз, или в сотне метров. Он может различить даже небольшое движение на периферии зрения. Но при этом он, увы, инертен, и поэтому, если показывать человеку ряд картинок с определенной частотой, то начиная с определенного количества картинок в секунду нам будет казаться, что это уже не статичные изображения, а движение. Но вот вопрос — начиная с какой частоты так происходит?

Начнем немного издалека — с «технического устройства» глаза. В нем есть два типа чувствительных к свету клеток (фоторецепторов): это палочки и колбочки. Палочки отвечают за черно-белое зрение, но при этом у них низкая инертность. Колбочки же отвечают за цветное зрение, и их инертность выше. В человеческом глазу в центральной части много колбочек и мало палочек, а на периферии наоборот — превалируют палочки. Это разумно — менее инертные палочки могут заметить даже небольшое движение на границе зрения, ну а потом мы поворачиваем голову и смотрим, что же это за движение уже центральной частью, где много колбочек, и видим затаившегося льва в кустах . Но вот мониторов или телевизоров, которые полностью охватывают весь угол зрения, нет, поэтому мы в основном смотрим на него прямо, то есть в основном используются более инертные колбочки. Но вот насколько они инертны?

Первое мнение — 24 кадра в секунду хватит всем, и его очень любят киношники: ведь это позволяет им экономить пленку. Получился такой результат чисто экспериментально — это минимальный fps в видео, при котором оно все еще кажется нам видео, а не слайд-шоу. Но тогда почему 24 кадра в компьютерной игре кажется нам мало? Ответ прост — один кадр, снятый камерой, является суперпозицией всего происходящего, пока был открыт затвор. Иными словами, гоночная машина, при снятии ее камерой, выглядит так:

А вот в игре, где каждый кадр — это четко просчитанная видеокартой картина в каждый момент времени, любой скриншот будет выглядеть четко (если, конечно, размытие не сделано програмно).

Читайте также:  Зенфон макс про стоимость

Поэтому 24 fps в видео достаточно, так как каждый кадр имеет в себе информацию, позволяющую склеить его и с предыдущим, и с последующим. А вот в играх это не так, и 24 кадра в секунду там мало. Но сколько нужно fps в играх? Экспериментаторы решили пойти другим путем — не показывать человеку игру, постепенно увеличивая fps и спрашивая, стала ли она плавной. Они решили определить инертность глаза, то есть время, которое нужно ему для обработки информации об одном кадре. И оно оказалось около 20 мс, отсюда легко получается, что глазу для плавности достаточно 50 fps. И тут многие делают несколько неправильный вывод — ну если 50 fps достаточно, то возьму-ка я монитор с частотой в 60 Гц (с небольшим запасом) и буду любоваться плавной картинкой.

В чем же их ошибка? А ошибка в том, что fps и Гц это не одно и тоже — первое это кадры, которые отображает матрица, а второе — это количество поступающих на нее сигналов в секунду. Казалось бы, даже по определению это одно и то же. Но мы забываем про то, что у мониторов есть время отклика. К примеру, нам нужно изменить цвет с серого на темно-серый, и если мы подключим осциллограф, то увидим, что матрица «въезжает» в цвет аж 34 мс:

Но ведь если мы хотим получить 50 fps, то задержка должна быть не более 20 мс, а тут в полтора раза больше. Что это означает? А это означает то, что в динамических сценах мы никогда не увидим правильные цвета, потому что матрица банально не успеет в них «попасть» — кадры сменяются быстрее. Поэтому мы видим различные артефакты картинки в виде шлейфов и некорректных цветов.

Но что если мы возьмем матрицу с частотой в 120 Гц и сравним с 60 Гц матрицей? Картина будет такая (кадры сделаны раз в 8.3 мс, что соответствует 120 Гц):

Хорошо видно, что белые шлейфы за объектами на 120 Гц значительно меньше. Более того — непопадания в цвет так же будут исчезать значительно быстрее, да и сами промахи цветопередачи будут меньше, так как теперь изменение яркости будет происходить не в один шаг, а в два, а чем меньше шаг — тем меньше промах. В итоге картинка на 120 Гц будет действительно казаться плавнее, но не из-за того, что человеческий глаз может воспринимать 120 fps, а из-за того, что на такой матрице будет гораздо меньше артефактов, и она быстрее реагирует на изменение картинки.

Имеет ли смысл повышать частоту еще выше — до 240 Гц к примеру? Имеет — это еще сильнее уменьшит шлейфы и промахи в цвете. Но на сегодняшний день системы, которые могут выдавать в современных играх в FHD 240 кадров в секунду стоят очень дорого, поэтому пока что такие мониторы не нужны. А вот 120 fps уже способна выдать не самая дорогая из современных видеокарт Nv >

В перечень важнейших эксплуатационных параметров мониторов компьютеров входит частота обновления. Данная статья поможет вам ответить на вопросы, что она из себя представляет, для чего может потребоваться её корректировка, а также в каких случаях, наоборот, перенастройка не имеет смысла.

Какая частота обновления монитора лучше

Ответ на этот вопрос зависит от модели дисплея. Например, в старых мониторах CRT разбег параметров включал в себя от 60 до 85 герц, а некоторые модели могли доходить даже до 100 герц, зачастую после покупки была необходимость проводить ручную настройку.

Читайте также:  Автоматически обновить драйвера видеокарты на windows 7

Современные ЖК мониторы IPS, несмотря на, несомненно, более высокие качественные характеристики по другим критериям, обладают максимальной частотой обновления 60 герц, которая, как правило, не требует перенастройки. Даже если этот параметр у CRT-мониторов выше, у IPS всё равно результат будет лучше, поскольку в них используется технология построения изображения по всему экрану, а не построчно, как в предыдущем варианте.

СПРАВКА! Более «скоростная» модель — TN, данный параметр у неё доходит до 120, а иногда и до 144 герц.

Исходя из этого, можно было бы сделать вывод о том, что чем выше частота обновления, тем лучше, и при выборе монитора это может сыграть решающую роль. Но действительно ли это так?

Почему важна частота обновления экрана

Сперва давайте попробуем разобраться, что включает в себя это понятие. Оно имеет отношение к человеческому восприятию и даже к строению глаза, поэтому начнём именно с этого.

Так биологически сложилось, что зрение человека лучше воспринимает движение своей периферической частью, нежели центральной. Но поскольку информация с экрана воспринимается нами именно центральной частью глаз, этим ещё со времён изобретения кинематографа пользовались киноделы, для экономии плёнки прокручивая фильм со скоростью 24 кадра в секунду — минимальное количество кадров для иллюзии непрерывного движения, а не набора слайдов.

Однако, если речь идёт о компьютерных играх, для них 24 кадра в секунду — это мало. Дело в том, что снимаемое камерой движение естественным образом «размывается», но поскольку обычно фокусировка идёт на одном объекте, размытие фона не бросается в глаза. В компьютерной игре же, если это не предусмотрено программно, даже самый быстрый и динамичный кадр можно поставить на паузу и все детали будут чётко различимы, поскольку это было просчитано видеокартой ещё в момент установки. При скорости 24 кадра в секунду анимация выглядит «дёрганой», не плавной.

Экспериментально доказано, что оптимальная скорость для восприятия видеоигры — 50 кадров в секунду. В таком случае, зачем нужна частота обновления больше этой цифры? Дело в том, что у каждого монитора есть время отклика, совсем небольшое, исчисляемое миллисекундами, но всё же есть. Соответственно, чем больше сигналов будет поступать на матрицу, тем более плавной будет картинка, которую будет успевать обрабатывать монитор.

Соответственно, для обычного пользования компьютером, включая просмотр видео, частота обновления 60 герц — оптимальный вариант. Для современных видеоигр же потребуется как минимум в два раза больше.

Как узнать частоту обновления монитора

Если вы — пользователь Windows 7 или 8, кликните по пустому пространству рабочего стола и выберите «Разрешение экрана»

Если экранов несколько, в пункте «Дисплей» выберите тот, который вам необходим, затем переходите к следующему шагу — «Дополнительные параметры».

Переходите на вкладку «Монитор», в которой и находится искомый пункт «Частота обновления экрана».

Для более современных систем Windows 10 последовательность действий ненамного отличается и тоже начинается с клика по пустому пространству рабочего стола и выборе «Параметров экрана»

В боковой панели выберите пункт «Дисплей», а в нём «Дополнительные параметры дисплея».

В этом окне вы также можете выбрать тот экран, который вам необходим.

После этого вам будет нужен пункт «Свойства видеоадаптера для дисплея».

И, наконец, выбрав вкладку «Монитор», вы сможете регулировать настройки частоты обновления экрана таким образом, какой вам нужен.

Комментировать
2 просмотров
Комментариев нет, будьте первым кто его оставит

Это интересно
Adblock detector