Для начала, чтобы не было путаницы. FreeSync и Adaptive-Sync — это одна и та же технология. Думаю, объяснять, откуда взялось два названия, в рамках этой новости смысла нет, просто запомните, что это одно и то же.
Я для удобства буду писать FreeSync. Итак, как вы уже поняли из заголовка, Nvidia наконец-то начнёт поддерживать FreeSync. Эта новость явно в большей степени заинтересует тех геймеров, кто понимает, о чём речь. Но если кратко FreeSync — технология адаптивной кадровой частоты. Это когда кадровая частота монитора подстраивается под частоту кадров в игре, за счёт чего картинка становится очень плавной.
FreeSync существует на рынке уже несколько лет, это открытый стандарт, но Nvidia его не поддерживала, поддерживали лишь карты AMD. Nvidia продвигала свою технологию — G-Sync, которая делает то же самое, но ей нужен отдельный аппаратный блок, который устанавливается в монитор. В случае FreeSync ничего не требуется.
И вот сегодня Nvidia заявила, что уже 15 января её видеокарты наконец-то будут поддерживать FreeSync. Если точнее, в этот день должен выйти новый драйвер, который и принесёт картам поддержку этой технологи. Правда, только адаптерам поколений Turing и Pascal, но всё же. Nvidia говорит, что по умолчанию поддержка коснётся нескольких сотен мониторов, которые сама компания уже протестировала, но у пользователей будет возможность вручную активировать технологию для любого монитора, который поддерживает FreeSync.
У меня на этом фоне вопрос: а что будет с G-Sync?
Ваши слова вводят в заблуждение, будто при условии наличия видеокарты AMD любой монитор будет работать с динамической частотой кадров (хотя при этом дальше вы пишете, что монитор должен поддерживать FreeSync).
Железная поддержка FreeSync со стороны монитора обязательно должна присутствовать.
Но реализация зависит от самих производителей, и они могут делать что угодно, лишь бы протокол соответствовал стандарту. Отличие G-Sync в том, что там используется не открытый протокол, а полностью закрытая реализация, и блок управления частотой соответственно производится самой Nvidia.
В случае с FreeSync в мониторе будет стоять точно такой же блок управления частотой, но производитель не платит миллионы денег Nvidia за использование и сертификацию, т.к. реализацию он делает сам. Но это не “ничего не требуется”.
Из очевидных минусов получаем сильный разброс в качестве реализации.
Adaptive Sync и FreeSync – это, вообще говоря, не одно и то же.
FreeSync – это именно технология, разработанная AMD, а AdaptiveSync – стандарт протокола, который был принят комитетом VESA. Отличие примерно такое же как между кодеком H.264 и его декодером в GPU.
Это мелочь, но тем не менее.
G-Sync и FreeSync вообще говоря работают не одинаково, особенно в случае, когда частота игры меньше рабочей частоты монитора. В этом случае FreeSync держит частоту равной минимальной (как это происходит с vsync on), а G-Sync увеличивает частоту развёртки в 2 раза, т.е. если условный ведьмак работает с частотой 27FPS, то монитор с G-Sync будет поддерживать частоту 56FPS и буферизовать кадр,показывая его два раза.
так, давайте по порядку, чтобы было удобнее.
1. Adaptive-Sync и FreeSync — это не одно и то же, да. сначала была технология FreeSync, которая потом стала частью стандарта DisplayPort 1.2a и переименовалась в Adaptive-Sync. но это только вопрос официальной формулировки, по факту одно перешло в другое со сменой имени, никакой разницы с технической точки зрения нет)
2. железная поддержка для Adaptive-Sync, конечно, должна присутствовать. это какой-то (уж простите, не знаю, какие именно у них маркировки) контроллер, отвечающий за реализацию DisplayPort 1.2a. естественно, микросхема нужна. но нужна она не для реализации технологии AS, а для реализации стандарта DisplayPort 1.2a, а поддержка AS уже идёт при этом “автоматом”) если сравнивать с G-Sync, для которой нужен именно отдельный вообще никаким образом не связанный с открытыми стандартами аппаратный блок, то для AS ничего ненужно) причём для G-Sync там именно блок с собственной памятью и процессором. а если говорить о мониторах с 4K/144Гц, то этот блок ещё и стоит космических денег, потому что там FPGA Intel Altera Arria 10 GX 480)
3. по поводу разницы в работе между FreeSync и G-Sync, которую вы описали, я её не знал, спасибо. но это детали. я имел в виду, что в целом технологии делают одно и то же: синхронизируют кадровую частоту монитора и частоту кадров, выдаваемых видеокартой
Як можна таку маячню писати, звідки інфа? Чітко написано, що частота монітора синхронізується з частотою кадрів відеокарти, а не навпаки.
Джерело nvidia https://developer.nvidia.com/g-sync
Вікі https://ru.wikipedia.org/wiki/Nvidia_G-Sync