Search

Почему игровые мониторы имеют частоту обновления 144 Гц?

1254

В последнее время всё чаще можно встретить на прилавках магазинов мониторы с частотой обновления картинки 144 герц. Что же такое «частота обновления»? Это то, сколько раз дисплей обновляет картинку за одну секунду. 60 Гц дисплеи обновляют изображение 60 раз в секунду. Зачем вообще это нужно? Нам всем прекрасно жилось при 60 герцовых мониторах. В действительности всё немного иначе. Миф про то, что глаз человека способен различать лишь 24 кадра — миф. То же касается и 150 кадров, о которых так часто говорят в последнее время. Глаз человека способен различать более 1000 кадров в секунду, и до конца не известны точные цифры, поэтому наличие мониторов с частотой обновления кадров более 60 Гц вполне оправдано.

Почему в мониторах используется частота 144 герц?

FPS и герцы — одно и то же?

Нет. FPS (framerate per second) — число кадров в секунду. Игра может работать с числом кадров 120, но если монитор поддерживает лишь частоту 60 Гц, половина кадров будут отброшены и не показаны пользователю. И при этом монитор с частотой 144 Гц может не раскрывать себя, если игра будет иметь меньшее число кадров. Именно поэтому, покупая подобный монитор, стоит задуматься и о том, чтобы видеокарта вашего компьютера смогла «переваривать» игры со 144 кадрами в секунду.

Почему 144 Гц?

И действительно, почему производители выбрали именно число 120 или 144? Почему не 150 герц? Вопрос интересный, и ответ лежит на поверхности. 144 — это 24 умноженное на 6. Все текущие герцовки дисплеев делятся на 24: 120 Гц, 144 Гц, 240 Гц, 360 Гц. К слову, сегодня компания Nvidia в партнерстве с ASUS представила дисплей с частотой обновления кадров 360 герц и технологией G-Sync. Его продажи начнутся в 2020 году, а стоимость пока не раскрывается. Но очевидно, стоить он будет явно дороже 700 долларов.

Nvidia представила монитор с частотой обновления 360 Гц

Почему же числа делят на 24? И откуда вообще взялись те самые 24 кадра?

Всё началось с того времени, когда частота обновления картинки монитора зависела напрямую от частоты электричества. В США она равнялась 60 Герц или 59,94 Гц, а в Европе 50 Гц. Откуда взялись цифры 60 и 50? В начале 20 века США и ряд стран Азии выбрали стандартом 60 Герц (NTSC), а в Австралии и странах Европы 50 Гц (PAL). Дело в том, что именно начиная с 50 Гц человеческий глаз перестает замечать мерцания лампы накаливания.

При этом фильмы в США делались с частотой 24 кадра. Эта цифра была взята практически с потолка в сентябре 1927 года Комитетом номенклатуры и стандартов США. В Европе же фильмы снимали с частотой 25 кадров в секунду. Сегодня современные мониторы и телевизоры имеют частоту кадров, которая делится на 60 или 24, просто потому, что стандарт NTSC стал более популярным во всём мире.

К слову, игры в далекие времена разрабатывались в основном в США и Японии, поэтому они адаптировались под стандарт NTSC и работали с 60 Гц мониторами. В связи с этим игроки в Европе могли ощущать замедление геймплея на 17%, разработчики игр адаптировали их под 50 Гц, но это приводило к необходимости переписывать код и появлению багов в играх. А чтобы поправить проблему со звуком, было принято делить фреймрейт на 1,001, именно поэтому можно встретить фреймрейты 59,94, 29,97, 23,976.

Чего ждать в будущем?

Можно ожидать появления экранов с обновлением картинки 480 Гц, 600 Гц и даже 720 Гц. Однако это случится не скоро, ведь процесс увеличения кадров ударяет в первую очередь по производителям железа — это серьёзный вызов. Не каждая видеокарта способна показывать без задержек 4K-видео при 60 кадрах в секунду, поэтому ждать широкого распространения даже мониторов с 360 Гц частотой в ближайшие пару лет не стоит.

Что же мы имеем в итоге? За счёт популярности стандарт NTSC во всём мире стало популярным использование герцовки, которая делится на 24 или 60. А что думают по этому поводу наши читатели? Делитесь мнением в комментариях ниже.

Источник




Добавить комментарий