Наверх
3 комментария 08/01/2019

Nvidia сдалась и будет поддерживать FreeSync/Adaptive-Sync

Nvidia сдалась и будет поддерживать FreeSync/Adaptive-Sync

Для начала, чтобы не было путаницы. FreeSync и Adaptive-Sync — это одна и та же технология. Думаю, объяснять, откуда взялось два названия, в рамках этой новости смысла нет, просто запомните, что это одно и то же.

Я для удобства буду писать FreeSync. Итак, как вы уже поняли из заголовка, Nvidia наконец-то начнёт поддерживать FreeSync. Эта новость явно в большей степени заинтересует тех геймеров, кто понимает, о чём речь. Но если кратко FreeSync — технология адаптивной кадровой частоты. Это когда кадровая частота монитора подстраивается под частоту кадров в игре, за счёт чего картинка становится очень плавной.

FreeSync существует на рынке уже несколько лет, это открытый стандарт, но Nvidia его не поддерживала, поддерживали лишь карты AMD. Nvidia продвигала свою технологию — G-Sync, которая делает то же самое, но ей нужен отдельный аппаратный блок, который устанавливается в монитор. В случае FreeSync ничего не требуется.

И вот сегодня Nvidia заявила, что уже 15 января её видеокарты наконец-то будут поддерживать FreeSync. Если точнее, в этот день должен выйти новый драйвер, который и принесёт картам поддержку этой технологи. Правда, только адаптерам поколений Turing и Pascal, но всё же. Nvidia говорит, что по умолчанию поддержка коснётся нескольких сотен мониторов, которые сама компания уже протестировала, но у пользователей будет возможность вручную активировать технологию для любого монитора, который поддерживает FreeSync.

У меня на этом фоне вопрос: а что будет с G-Sync?

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Загрузка...

3 комментария

сначала новые
по рейтингу сначала новые по хронологии
1

В случае FreeSync ничего не требуется.

Ваши слова вводят в заблуждение, будто при условии наличия видеокарты AMD любой монитор будет работать с динамической частотой кадров (хотя при этом дальше вы пишете, что монитор должен поддерживать FreeSync).
Железная поддержка FreeSync со стороны монитора обязательно должна присутствовать.
Но реализация зависит от самих производителей, и они могут делать что угодно, лишь бы протокол соответствовал стандарту. Отличие G-Sync в том, что там используется не открытый протокол, а полностью закрытая реализация, и блок управления частотой соответственно производится самой Nvidia.

В случае с FreeSync в мониторе будет стоять точно такой же блок управления частотой, но производитель не платит миллионы денег Nvidia за использование и сертификацию, т.к. реализацию он делает сам. Но это не "ничего не требуется".
Из очевидных минусов получаем сильный разброс в качестве реализации.

Adaptive Sync и FreeSync - это, вообще говоря, не одно и то же.
FreeSync - это именно технология, разработанная AMD, а AdaptiveSync - стандарт протокола, который был принят комитетом VESA. Отличие примерно такое же как между кодеком H.264 и его декодером в GPU.
Это мелочь, но тем не менее.

G-Sync и FreeSync вообще говоря работают не одинаково, особенно в случае, когда частота игры меньше рабочей частоты монитора. В этом случае FreeSync держит частоту равной минимальной (как это происходит с vsync on), а G-Sync увеличивает частоту развёртки в 2 раза, т.е. если условный ведьмак работает с частотой 27FPS, то монитор с G-Sync будет поддерживать частоту 56FPS и буферизовать кадр,показывая его два раза.

2

G-Sync и FreeSync вообще говоря работают не одинаково, особенно в случае, когда частота игры меньше рабочей частоты монитора. В этом случае FreeSync держит частоту равной минимальной (как это происходит с vsync on), а G-Sync увеличивает частоту развёртки в 2 раза, т.е. если условный ведьмак работает с частотой 27FPS, то монитор с G-Sync будет поддерживать частоту 56FPS и буферизовать кадр,показывая его два раза.

Як можна таку маячню писати, звідки інфа? Чітко написано, що частота монітора синхронізується з частотою кадрів відеокарти, а не навпаки.
Джерело nvidia https://developer.nvidia.com/g-sync

G-SYNC’s revolutionary performance is achieved by synchronizing display refresh rates to the GPU in your GeForce GTX-powered PC, eliminating screen tearing and minimizing display stutter and input lag.

Вікі https://ru.wikipedia.org/wiki/Nvidia_G-Sync

Автор3
Кукишев Дмитрий

так, давайте по порядку, чтобы было удобнее.

1. Adaptive-Sync и FreeSync — это не одно и то же, да. сначала была технология FreeSync, которая потом стала частью стандарта DisplayPort 1.2a и переименовалась в Adaptive-Sync. но это только вопрос официальной формулировки, по факту одно перешло в другое со сменой имени, никакой разницы с технической точки зрения нет)

2. железная поддержка для Adaptive-Sync, конечно, должна присутствовать. это какой-то (уж простите, не знаю, какие именно у них маркировки) контроллер, отвечающий за реализацию DisplayPort 1.2a. естественно, микросхема нужна. но нужна она не для реализации технологии AS, а для реализации стандарта DisplayPort 1.2a, а поддержка AS уже идёт при этом "автоматом") если сравнивать с G-Sync, для которой нужен именно отдельный вообще никаким образом не связанный с открытыми стандартами аппаратный блок, то для AS ничего ненужно) причём для G-Sync там именно блок с собственной памятью и процессором. а если говорить о мониторах с 4K/144Гц, то этот блок ещё и стоит космических денег, потому что там FPGA Intel Altera Arria 10 GX 480)

3. по поводу разницы в работе между FreeSync и G-Sync, которую вы описали, я её не знал, спасибо. но это детали. я имел в виду, что в целом технологии делают одно и то же: синхронизируют кадровую частоту монитора и частоту кадров, выдаваемых видеокартой

Добавить комментарий

Такой e-mail уже зарегистрирован. Воспользуйтесь формой входа или введите другой.

Вы ввели некорректные логин или пароль

Извините, для комментирования необходимо войти.

Modal box

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: