Пользователь
0,0
рейтинг
21 октября 2013 в 14:34

Разработка → Nvidia представила технологию G-Sync: плата, встраиваемая в мониторы, должна избавить их от разрыва и пропуска кадров recovery mode

Корпорация Nvidia сделала один очень важный шаг в развитии LCD мониторов: Nvidia G-Sync. Эта технология способна обновлять монитор с переменным интервалом (до определённого предела). Вместо того, чтобы обновлять монитор в определённые фиксированные интервалы, монитор будет обновляться в тот момент, как видеокарта закончит генерацию фрейма.

Переменный интервал обновления объединяет в себе преимущества включенной вертикальной синхронизации (V-Sync ON) (убирает разрывы кадров) с преимуществами выключенной вертикальной синхронизации (V-Sync OFF) (низкая задержка ввода [input lag]), при этом убирая подвисания (отсутствие разницы между кадрами в секунду [frame rate] и частотой обновления экрана [refresh rate]).



Аппаратная плата Nvidia G-Sync.


Отрисовка изображения на мониторе с включенной вертикальной синхронизацией.


Теперь с отключенной.


Разрыв кадров.


Nvidia G-Sync.


Как известно, разрывы кадров и задержка ввода это не единственная проблема LCD мониторов по сравнению с CRT. У них существует еще такая проблема, как размыливание картинки при движении (motion blur), которое до сих пор отталкивает некоторых от использования ЖК мониторов. Эта проблема начала уже уходить в прошлое благодаря появлению мониторов с более высокой частотой обновления, а также не так давно появившемуся хаку LightBoost (применим только на 120+ Гц мониторах).

60 Гц:


120 Гц:


120 Гц + LightBoost:


Сравнение:


Как Nvidia сообщили позднее, все мониторы с функцией G-Sync будут иметь официальную версию LightBoost, но более подробные детали будут известны позднее.
We have a superior, low-persistence mode that should outperform that unofficial [LightBoost] implementation, and importantly, it will be available on every G-SYNC monitor. Details will be available at a later date.

Было объявлено, что стоимость монитора наличие платы G-Sync увеличит не сильно, но пока неизвестно насколько. Компании BenQ, ASUS, Phillips и Viewsonic должны начать выпуск таких устройств начиная с первого квартала 2014 года. Было также объявлено, что для работы G-Sync будет необходима видеокарта с архитектурой Kepler (GTX 660 и выше).

Я бы приложил к посту видео, но те, что я видел, к сожалению, не показывают различий, так как записаны в 30 фпс, а чтобы увидеть разницу, нужно хотя бы 60. Поэтому оставлю без видео. Если найду хорошее — добавлю.
UPD. www.youtube.com/watch?v=NffTOnZFdVs

Данная технология будет интересна в первую очередь для геймеров, но и обычным пользователем также должно быть более приятно работать с монитором, поддерживающим функцию G-Sync, в первую очередь благодаря устранению размытия.

UPD. Уже в этом году первые G-Sync модули поступят профессиональным моддерам и будут установлены в мониторы ASUS VG248QE, который был оценен различными изданиями как одна из лучших игровых ЖК-панелей. Уже модифицированные VG248QE мониторы будут продаваться моддинговыми компаниями с небольшой наценкой, чтобы покрыть их расходы, а также будут включать в себя годовую гарантию как на сам монитор, так и на плату G-Sync.

Альтернативно: если вы умеете работать с отвёрткой, можно будет купить upgrade kit и самому модифицировать свой ASUS VG248QE дома. Это, конечно, более дешёвый вариант. Вы также получите годовую гарантию на модуль G-Sync, но, разумеется, гарантия не будет покрывать человеческий фактор при установке платы. Подробная инструкция по установке будет доступна онлайн после релиза. По оценке Nvidia, время установки займёт около 30 минут.

Кого заинтересовал хак LightBoost — можно попробовать прямо сейчас при наличии подходящего монитора. Инструкция (англ.).
Александр @ekze
карма
7,0
рейтинг 0,0
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Спецпроект

Самое читаемое Разработка

Комментарии (48)

  • 0
    Без этой платы мониторы разрывает?
    • +9
      При выключенной вертикальной синхронизации действительно разрывает. Прямо как на картинке.
    • +1
      Funny because CRT with double buffer still beats LCD.
  • +5
    Неправильные у них картинки. В нормально написанной игре цикл Draw начинается сразу после предыдущего цикла. Нет никакого Lag.
    Просто рисуется картинка в другой буфер, пока предыдущий ждет, когда его покажут. Конечно, если у нас цикл Draw систематически не успевает отрисовываться за время Scan, то будут пропуски кадров. Ну так GSync от этого не спасет — Scanы будут идти реже и получится слайдшоу, только не в видеокарте а уже на мониторе.
    Оно должно помогать с плавающей частотой кадров, которая должна быть всегда выше 25 к/с. Т.е. монитор будет адаптироваться под скорость отрисовки видеокарты.
    И увидеть эффект реально можно только глазами, потому что видео с фиксированной частотой кадров его не передаст.
  • 0
    Использую lightboost + 120 Гц дома, но у этого подхода есть свои минусы. Если эта технология позволить плавно выводить изображение, как старенькие ЭЛТ со 120 герц(или больше) и full-hd разрешении — это замечательно.
    То, что убирает input lag — тоже очень хорошо.

    Посмотрим, что из этого выйдет.
    • 0
      А какие минусы у подхода с lightboost?
      • +4
        Искажение цвета, невозможность повлиять на яркость/контраст (оно просто заблокировано, но, теоретически, можно воспользоваться DDC/CI для изменения этих параметров, однако, я думаю, это все равно не сработает (пробовал на linux, тут криво реализован DDC/CI в ddccontrol, а других утилит не нашел, да и ту пришлось допиливать, чтобы скомпилилась и работала)).

        Для мониторов даже специальные цветовые профили выкладывают, чтобы все выглядело хотя бы чуточку получше, плюс, в последние месяцы вышел обновленный драйвер NVIDIA и цвета стали еще хуже на Benq XL2411T.

        И еще — самый главный и противный для меня минус — невозможность активации lightboost в Linux без участия Windows, т.е. обязательно должна стоять винда с нормально установленными драйверами, чтобы с ней потрахаться и выставить lightboost, да еще и монитор потом нельзя выключать, иначе все сброситься. Но я эту проблему поборол установкой винды в VHD на портативный винчестер и установкой пропатченного grub4dos для восприятия хитрых виндовых VHD-образов и загрузки в них.

        Короче, чтобы активировать lightboost на Linux — нужно потратить кучу сил, на винде все проще. Плюс потом еще с цветами ковыряйся.
        • +2
          Спасибо за развёрнутый ответ.
      • 0
        Минус в том, что начало нового кадра вы увидите несколько позже (на 1-3-5мс позже).

        Обычный монитор начнет меееедленно переключать пиксель, и вы сразу будете видеть этот процесс.
        С lightboost вы увидите изображение только тогда, когда пиксель полностью переключился.
  • +1
    Интересно, будут ли ATI выпускать аналог. И будет ли в таком случае в каждом мониторе по два чипа от каждой.
    • 0
      ATI не существует с 2006 года. AMD скорее лицензируют технологию.
  • +1
    Насколько я понимаю это не проблема именно ЖК панелей как таковых?
    На плазме тоже встречается разрывы тиринг, и, боюсь соврать, но на ЭЛТ тоже вроде было, не помню уже.
    Input lag кстати либо отсутствует, либо совсем не заметен на старых играх сейчас, с включённым v-sync. Т.е. по сути он упирается в вычислительные мощности.
    Поправьте если где не прав, мог всё нарвать. =))
    • +1
      Да, вы правы, все упирается в способность оборудования обработать кадр быстрее чем за 1/60 секунды (для дисплея с частотой 60 Гц). Input Lag не заметен в старых играх, потому что каждый кадр в них обрабатывается гораздо быстрее чем за 1/60 секунды на современном оборудовании, в этом случае картинка и выводится с частотой 60 FPS. Как только время обработки кадра превышает 1/60 секунды, видео драйвер ждет следующего обновления кадра на дисплее, т.е. фактически получаем 30 FPS в игре, отсюда и появляется этот неприятный Input Lag. Это кстати очень раздражает, когда игра работает с частотой 50-60 FPS, но с включенным v-sync получаем 30 FPS, приходится отключать.
      • 0
        В кваке залоченных 60 кадров в секунду не хватает для комфортной игры.
  • 0
    Тут еще не написали что это работает только через DisplayPort, потому что он поддерживает пакетную передачу данных.
    Если хорошо пойдет им просто нужно расширить стандарт и сделать стандартную фишку — Variable Frame Rate (VFR).
  • 0
    Вроде как давно уже придумали «Triple Buffering» именно для этой цели?
    • +4
      У тройной буферизации огромнейший инпут лаг.
      • +1
        три кадра?
    • 0
      Буферизация служит для того, чтобы минимизировать простой видеокарты когда один кадр уже готов, а другой еще отправляется. Но разрывов не возникает только в случае применения вертикальной синхронизации, иначе же буферы переключаются прямо на лету, как только очередной кадр отрисован, а отрисован он может быть когда угодно.
  • 0
    Мне кажется, что это решение nVidia порочно по своей сути. При неравномерном во времени обновлении экрана о плавной (как на телевизоре) анимации мечтать не приходится.

    Что же касается опции V-sync Off и связанным с ней эффектом разрыва — то это вообще пережиток прошлого, когда значительная часть программистов не понимала принципов формирования изображения на мониторе. В этот период как раз и возник термин «FPS», который будто бы чем больше — тем лучше. А на самом деле задача состоит всего лишь в том, чтобы обновлять изображение раз в кадр. Не чаще, но и не реже.

    Что же касается лагов — то последние разработки Microsoft и производителей видеокарт только усугубляют ситуацию с ними. Взять хотя бы принудительную буферизацию перед отображением. То изображение, которое было сформировано программой в BackBuffer, появляется на экране не в следующем кадре, а через 3-4 кадра. Проверялось с помощью фотодиода и осциллографа. Только в Direct3D9Ex появляется функция SetMaximumFrameLatency, которая может отключить эту принудительную буферизацию.
    • 0
      Будет плавно, если между кадрами будет не более 40мс и анимация будет рисоваться по времени, а не по кадрам.
      Насчет, что достаточно обновления раз в кадр — согласен. Однако кадров может быть 30 за секунду, а может быть 60. При этом 60 выглядит плавнее чем 30, хотя теория говорит, что 25 достаточно. Вот тут мне не совсем понятно.
      С другой стороны в играх все время меняется сложность сцен это приводит к разному времени отрисовки кадров. Если монитор будет подстраиваться под карту, то можно будет получить более плавное отображение на слабом железе ну или увеличить сложность сцен для сильного железа.
      • +1
        Теория говорит, 25 кадров нужно, чтобы движение казалось непрерывным. Это не тоже самое, что плавность.
        • +1
          > Теория говорит, 25 кадров нужно, чтобы движение казалось непрерывным.
          Это справедливо для кино, где резкие движения естественным образом размывает выдержка, и анимации, где быстро движущиеся предметы специально рисуют размытыми. Motion blur всего мира в реальном времени пока что недостижим, поэтому плавности добиваются высоким количеством кадров.
        • 0
          Теория говорит про 16 кадров для непрерывности, IIRC.
        • 0
          Глупая теория, на мой взгляд. Вообще, то, насколько последовательность кадров кажется непрерывной зависит от многих факторов, в том числе: телесный угол, размер объекта, движущегося в кадре, насколько он яркий, психофизического состояния наблюдателя и прочее. Поясню на примерах. Возьмите видео, где есть динамичные сцены, и изображение местами подтормаживает. Это если Вы его смотрите на телевизоре 42 дюйма на расстоянии 1 метр. Закачайте его на смартфон и посмотрите то же видео на расстоянии вытянутой руки. Никаких прерываний! По поводу размера объекта. Если снимать даже очень шустрого мастера рукопашного боя неподвижной камерой, причём так, что он полностью умещается в кадре, а не закрывает своим телом весь обзор, то картинка будет смотреться довольно плавно. Но попробуйте произвести панорамную съёмку даже со штатива, то рывки кадров будут видны очень отчётливо.
  • +2
    Я вообще не понимаю зачем в матрице есть понятие развертки. По-идее она должна обновляться по команде из вне, причем не обязательно даже вся целиком. И даже не обязательно сверху вниз, можно как-нибудь в шахматном порядке, чтобы сгладить все эти разрывы и рывки при обновлении экрана.

    Почему это все не заложили сразу при проектировании всяких HDMI — не ясно.
    • 0
      Ну такое уже было — называется «черезстрочная» развертка. :-)
      А вообще наверно к этому придут — что то вроде loseless MPEG4 передавать в монитор сразу, а он пусть себе в буфер экрана прямо его разворачивает без промежуточного буфера. Только наверно это усложнит конструкцию буфера — там же надо как то лочить пиксели на запись пока «не знаю как это будет называться» читает значение цвета пикселя чтобы подать напряжение на ячейку в матрице.
    • 0
      Насколько знаю, матрица и так обновляется «извне», сначала приходящий по интерфейсу кадр пишется в буфер, затем, после сигнала развертки, изображение отображается на матрице за небольшую долю межкадрового интервала. Тиринг возникает еще при передаче.
  • +8
    > «разрывы кадров… проблема LCD мониторов по сравнению с CRT»
    Это неверно. CRT точно так же страдает от «разрыва кадров».
    Помню, ещё на бейсике в школе делал «игры», и делали «wait for retrace»: WAIT &H3DA, 8
    По-русски ещё говорили «ждать обратного хода луча».
  • –1
    Одного не понимаю, что если производительность просядет до 15 кадров, монитор с этой системой начнет заметно для глаза мерцать?
    • +3
      нет. в CRT каждый подсвеченный пиксель светился некоторое время и сам тух. в ЖК пока подаёшь напряжение сохраняет свой вид, поэтому нет проблемы с низкой частотой обновления.
  • +4
    Меня сильно смущает картинка с иллюстрацией моушен-блюра на lcd.
    Заголовок
    Вот эта, если что
    image


    Смазывание картинки равномерное, без разрывов. Значит объект двигался равномерно. На глазок, смазывание занимает около 25 пикселей. С учетом того, что частота смены кадров заявлена в 60Гц, то время затухания пикселя выходит ~ 400 мс. Что это за антикварная матрица такая?
    Нас пытаются на@#ать или это я где-то в расчетах ошибся?
    • 0
      Тут подробнее об этом сравнении и методе измерения.
  • 0
    (мимо)
  • 0
    для работы G-Sync будет необходима видеокарта с архитектурой Kepler (GTX 660 и выше).

    image
    • –10
      Жалко кармы не хватает вас плюсануть.
  • 0
    Что, наконец-то починят рваное видео на линуксах. Не прошло и десяти лет.
    • 0
      Но блин, пару недель назад только взял dell u2713h. Эх.
    • 0
      В гноме 3 лечится легко. Твикнуть немного Clutter и красота. И игры и видео теперь без тиринга.
      • 0
        ШОК

        Не верю, что мои страдания прекратятся после этого.
        Спасибо.
  • +2
    … для работы G-Sync будет необходима видеокарта с архитектурой Kepler (GTX 660 и выше).
    Какой замечательный маркетинг. А монитору не по фиг, какая к нему видеокарта подключена?
    • +2
      Ну надо же как то новые линейки продукции продвигать. Теперь им остается только заключить какой-нибудь хитрый договор с Intel и для работы G-Sync будет также станет необходим процессор не ниже Intel i7…
    • 0
      В мониторе будет встроена плата, которая будет работать напрямую с видеокартой. Подозреваю, что только 660 и новее будут уметь работать с этой платой.
  • 0
    А тем временем пока данное изобретение не попало на рынок, можно улучшить ситуацию своими силами.
    Вот одно из решений.
    Кто может порекомендовать более всеобъемлющий гайд — велкам.!
    Кстати, кто пробовал adaptive Vsync?
  • 0
    А как происходит отрисовка нового кадра?
    Почему вообще смаз происходит, а не выпадание кадров или частей кадра?
    В крайнем случае возможно наложение двух кадров из-за ограниченной скорости реакции, но не плавный смаз.
  • 0
    Лучше бы изобрели адаптивный рендеринг, который всегда любой ценой поддерживает вывод 60fps, в сложных местах автоматически снижая качество картинки (меньше полигонов или поменьше текстура).
    • 0
      Да, тоже интересная идея. Но для профессиональных геймеров 60 фпс уже мало, у всех 120/144гц мониторы.
    • 0
      Тогда изображение начнёт дёргаться каждый кадр.

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.