Компания
281,87
рейтинг
13 февраля 2013 в 09:06

Разработка → Гостья из будущего — интегрированная графика (Intel GPU) в Intel Haswell



Начну с сообщения для тех, кто не знал, и напоминания для всех остальных — по показаниям неподкупного скрипта подсчета статистики (авторства saul), самым популярным постом 2012 года в блоге компании Intel оказался "Игры разума. Разбираемся с Intel HD Graphics. И играем?" На сегодняшний день его просмотрели более 70 000 раз, что в четыре с половиной раза превышает средний показатель для подобных статей. Что и наводит на мысль — если у Intel GPU такое интересное настоящее, то и ближайшее будущее тоже должно быть интересным.

Этот пост рассказывает про особенности Intel HD Graphics (непосредственно графику, медиа, а также Display Port), интегрированной в выходящий в 2013 Intel CPU под кодовым названием «Haswell», а также проверяет предположение о читательском интересе.

Итак, Haswell, 4-ое поколение CPU микроархитектуры Intel Core, завершающий "-так" для «тика» Ivy Bridge, 22-nm технология производства. Процессор еще не вышел, но про его особенности, и, в частности, про интергрированный GPU известно уже довольно много. Так, инженеры Intel рассказывали про это еще в сентябре 2012 на Intel Developer Forum в Сан Франциско. А в январе 2013 на Consumer Electronic Show в Лас Вегасе была публично продемонстрирована графическая производительность системы с Haswell!

Но начнем с теории. Фундаментальных (читай «революционных») изменений архитектуры Intel HD Graphics в Haswell по сравнению с Ivy Bridge нет, но есть новые возможности, а также заметные улучшения, приводящие к росту производительности и существенному снижению энергопотребления.

Графическая подсистема:


  • Поддерживаемые API — DirectX 11.1, OpenGL 4.0 и OpenCL 1.2. (Против DirectX 11.0, OpenGL 3.3 и OpenCL 1.1 в существующем поколении графики)
  • Как и Intel HD Graphics предыдущих двух поколений, GPU Haswell будут выпускаться в разных модификациях, отличающихся количеством исполнительных устройств (EU), и соответственно, производительностью. Но теперь к модификациям GT1 и GT2 добавится новая — GT3. GT3 будет включать вдвое больше EU, чем GT2, при этом точное число исполнительных устройств не разглашается, но легко находится поиском в сети. Кстати, как показано на схеме ниже, в G3 удваиваются не только EU, но и блоки растеризации, Z-теста, операций с пикселями (Stensil buffer, Color Blend), а также кэш третьего уровня.



И, если уж говорить об удвоении, то производительность почти всех блоков фиксированной функциональности обработки пикселей (Fixed functions units), единая для всех GT и показанная в левой части схемы выше неразборчиво, а ниже — более читаемо, удвоена по сравнению с Ivy Bridge HD Graphics.



Обратите внимание на верхний угол — на входе графического конвейера расположен «Министр-Администратор» команд — Command Streamer (CS). Этот блок сам по себе не новый в Intel HD Graphics, но здесь он дополнен еще одним блоком — Менеджером Ресурсов — Resource Streamer (RS). Парсер RS «бежит впереди» CS, подготавливая необходимые данные для его работы, то есть, занимается тем, чем ранее занимался драйвер на CPU. Что находится в рамках общей тенденции переложения работы с CPU общего назначения на GPU и освобождения CPU для другой работы… или для сна, то есть, для экономии энергопотребления.

Также отметим, что кольцевая шина (Ring) обмена с кешем последнего уровня и памятью отделена от CPU Haswell и может программироваться независимо от частоты процессора

И, наконец, «до четырех раз выросла производительность текстурных семплеров в некоторых режимах». И, хотя математика и говорит, что «до четырех», это может быть и «1.5», но Intel — компания честная, так что здесь этот рост точно «чуть меньше четырех».

Январь 2013, Лас Вегас, казино Consumer Electronic Show. Intel показывает живую и не совсем обычную систему на Haswell GPU. А именно — это так называемый «Инженерный Образец», мобильный Haswell GT3, спрятанный установленный в десктопный корпус. Вот он, на снимке AnandTech:
image
Производительность ИО Haswell GT3 сравнивается с ASUS UX15 с NVIDIA GeForce GT 650M на примере игры Dirt 3 (1080p режим) и оказывется «субъективно идентичной», хотя точных данных о производительности и не приводится по понятным причинам — продукт еще не выпущен. Вот оригинальный пост AnandTech, к которому я могу только добавить, что за многие годы работы в Intel я не встретила ни одного случая, когда производительность вышедшей на рынок системы оказывалась хуже, чем у инженерного образца. Обычно бывает наоборот — вышедшие системы превосходят своих инженерных предков, что добавляет ценности показанному на CES результату.

С точки зрения разработчиков графических приложений, методология работы с Haswell Graphics не изменяется по сравнению с предыдущими поколениями. По-прежнему, стОит использовать здравый смысл и Intel GPA для профилирования.

Медиа подсистема:


Все фиолетовые блоки на схеме относятся к подсистеме обработки видео.
Есть среди них есть и новый, специфический для Haswell — Video Quality Engine (Блок Качества Видео). То есть, различные улучшения качества видеокартинки существуют в Intel HD Graphics — шумоподавление, деинтерлейсинг, коррекция тона кожи, адаптивное изменение контраста и тому подобные фичи (которые, кстати, при желании\необходимости легко отключаются в настройках Intel HD Graphics).Но только в Haswell Graphics их выделили в отдельный блок, а главное, добавили к ним еще две особенности, отключать которые едва ли захочется. Это — Стабилизация изображения и Преобразование частоты кадров (Frame rate conversion).
Стабилизация изображения — реализованное в железе улучшение видео, снятого с трясущихся рук незакрепленной на неподвижном штативе камеры. Появление этой особенности можно было легко предвидеть, если знать, что для сжатия видео в MPEG и подобные форматы используется оценка движения -motion estimation, также выполняемая в железе Intel HD Graphics. А зная, как происходит движение между отдельными кадрами, нетрудно понять, что это «движение» — просто дрожание картинки, и соответственно его скомпенсировать.

Преобразование частоты кадров — реализованный в железе переход от видео 24 или 30 кадров в секунду к 60. Причем, основанный не на размножении существующих кадров и даже не на их простом интерполировании, а на тех же принципах, что и стабилизация изображения. То есть, вычисляется межкадровая оценка движения, после чего на ее основе с помощью компенсации движения (motion compensation) делается «умная» интерполяция, дающая более гладкую картинку.


Остальные блоки медиа подсистемы — такие же, как и в Ivy Bridge, только лучше.
А именно, Haswell Graphics поддерживает в железе:
  • декодированиеSVC (Scalable Video Coding) в AVC, VC1 и MPEG2
  • декодирование Motion JPEG (видео в этом формате часто выдают мобильники и «мыльницы»)
  • кодирование MPEG2 (создание DVD, передача по DLNA)
  • декодирование видео высокого разрешения — до 4096х2304 включительно
  • улучшение качества кодирования видео, возможность выбора между производительностью и качеством — режимы кодирования Fast, Normal и Quality

Обратите внимание, что блоки Media Sampler, активно участвующие в кодировании видео — на них происходит вышеупомянутый motion estimation, кумулятивно добавляются в конфигурациях GT2 и GT3, так что от этих модификаций следует ожидать повышения производительности не только графики, но и работы с видео.

Поддержка дисплея.


Haswell Graphics поддерживает:
  • 3 дисплея одновременно
  • Display Port 1.2 с последовательным подключением панелей
  • дисплеи высокого разрешения до 3840х2160 @ 60Hz через Display Port 1.2 и 4096х2304 @ 24Hz через HDMI включительно
  • режим коллажа

В пояснениях здесь нуждается только последний пункт. Режим коллажа -это соединение четырех дисплеев (посредством двух специальных разветвителей- dongles) для показа Quad Full HD. Вот соответствующая красивая картинка, демонстрирующая отличие режима коллажа от просто «расширенного дисплея» (положение панели задач), а также от 4К монитора (стоимость):


А вот — не менее красивое видео живой демонстрации на Intel Developer Forum:


Кстати, подобной красотой можно наслаждаться уже сейчас — система с Intel Ivy Bridge + z77 чипсет, вышедший в октябре 2012, поддерживает 4К дисплей.

И, наконец, о главном. Кто эта девушка на фото, работает ли она в Intel, что она делает с этими ленточками-коробочками (или это они что-то с ней делают)? — Не знаю. Просто упомянутый в начале пост про Intel HD Graphics начинался с фото девушек-промоутеров Intel, так что я решила «не нарушать формат» и здесь.
Автор: @vikky13
Intel
рейтинг 281,87

Комментарии (49)

  • +3
    Всё здОрово. Осталось только довести до ума драйвера.
  • +8
    Спасибо, что не забываете поддерживать linux. Поддержка 4k дисплеев тоже радует, а то сильно раздражает, что на планшете выше разрешение, чем на 23'' мониторе.
  • +6
    >если у Intel GPU такое интересное настоящее, то и ближайшее будущее тоже должно быть интересным.
    Тут важен не интерес публики к решению как таковому, а то, что он находистя в десятке гугла по поиску «intel hd 4000 обзор», ещё и описание там начинается «Какие же игры играбельны на Intel HD 4000». Тоже смотрел этот «обзор» перед тем как Lenovo x230 брать. По факту, — современные игры не играбельны…
    • +3
      Что же касается Хасвелла, то, конечно, такое серьёзное увеличение производительности в интегрированной графике потрясает. Но возникает вопрос о тепловыделении. О нём же в статье ни слова не сказано.
      • +2
        С тепловыделением точно все нормально, не сомневайтесь. Haswell с интегрированной графикой, причем, самой мощной -GT3, будет устанавливаться в ультрабуки, которые обжигать пользователя точно не будут. Я видела предварительные данные по тепловыделению, но они, увы, непубличны. Потому в статье и не приводятся.
    • 0
      Почему же не играбельны? Почти все современные игры на минимальных настройках показывают более 30FPS на HD4000 — вполне играбельно!
      • –1
        30 FPS = слайдшоу, и заранее предупреждая ваш ответ про 24fps в кино оставлю ссылку
        boallen.com/fps-compare.html
        www.youtube.com/watch?v=9yBsgtA8WSE
        • 0
          Никто не спорит, что для FPS это слайдшоу, но для стратегии или RPG вполне играбельно…
          Поиграть можно, разве нет так? А что вы хотели от «бесплатного» GPU?
          • 0
            Независимо от жанра, 60 FPS куда приятней чем 30 FPS.
            К тому же не забывайте, что «в среднем 30 FPS» значит, что фреймрейт может сильно проседать на некоторых сценах/локациях/сражениях/…
        • 0
          Смотря какой пост-процессинг. Легкий motion blur может сделать картинку на 30FPS очень даже плавной. В качестве наиболее заметного примера — Crysis.
        • 0
          Абсолютно не заметил разницы между 60 и 30 fps.
          • –1
            Мне вас жаль, сходите к окулисту.
            Еще вот тут можете попробовать проверить зрение frames-per-second.appspot.com/
            • –1
              Мне Вас жаль, так как у Вас проблемы с мозгом а не у меня с глазами. Я серьезно и нисколько не пытаюсь Вас оскорбить. Зрение тут ни при чем, так как плавность движения на изображении зависит от интерполяции мозгом человека последовательности кадров. Если Вам не хватает 30fps — значит что-то не так.
              • 0
                так как у Вас проблемы с мозгом

                Скорее наоборот :)
                Я серьезно и нисколько не пытаюсь Вас оскорбить.
                Если Вам хватает 30fps — значит что-то не так.
        • 0
          Вмешаюсь и змечу, что тут многое еще зависит от самой анимации, то есть от того, насколько велико смещение объекта в отдельных кадрах. Если оно очень большое, то да, fps должен быть больше, а если не очень, как это обычно и бывает, то нет. И еще прав ниже JDima -постпроцессинг дело значительно улучшает.
    • 0
      Спасибо, я влияние Google недооценила, может, и зря.
      Но у меня многие посты, в т.ч. на английском попадают в десятку его выдачи, но такого результата пока еще не было.
      А на вопрос «какие игры играбельны» тот пост все же, честно отвечает :) А остальное — не в моих силах.
  • 0
    •3 дисплея одновременно и режим колажа из 4х мониторов?
    • 0
      > посредством двух специальных разветвителей- dongles
    • 0
      Посмотрите внимательно на схему подключения коллажа на рисунке. Она занимает два порта, т.е. остается только один свободный порт для дополнительного монитора. Т.е. в теории ответ: 1 обычный монитор + коллаж из 4 (через 2 разветвителя). На практике я этого не проверяла. Выйдет Хасвелл, проверим обязательно.
      • 0
        Не ну по логике, получается, что 4 одновременно тогда, а не три…
        • 0
          3 — это количество одновременно подключенных к материнской плате монитора, либо же соединённых в цепочку. Тут же используются донглы, которые объединят 2 монитора в один. Т.е. к материнской плате будет подключено 2 логических монитора. (просто каждый из них будет двойной ширины и состоять из двух физических)
  • +3
    4096х2304 @ 24Hz через HDMI — не весело как то
  • 0
    Вопрос.
    Если видеоядро поддерживает OpenCL, почему в linux оно не видится как отдельное от CPU opencl устройство?
    Сужу по sandybridge 2500K и sdk 2013 beta.
    Или это ограничение SDK под linux и на windows по-другому?
    • +1
      Ответ. Про OpenCL в linux, к сожалению, не знаю. В Windows отдельное opencl устройство появляется, начиная с ivybridge.
      • 0
        Надо попробовать на ноутбучном ivybridge.
        Только странно с opencl SDK 2013 на сайте интела. Раньше скачивал нормально, а теперь пишет что есть только под xeon и xeon phi opencl SSK под linux. Как это понимать?
    • +1
      Потому что эти идиоты решили не использовать Gallium и теперь сидят в ****.
      Они там что то начали на LLVM ваять но это ещё ОЧЕНЬ далеко от продакшана. Тогда как вариант на Gallium можно было бы уже использовать.
      Я бы всё же посоветовал им для нового чипа уже писать на gallium тогда бы проблем было бы меньше (в том числе и с поддержкой аппаратного видео).
  • 0
    ждем поддержки vGPU технологии разделения ресурсов, а то как-то Hyper-V поддерживает GPU в облаке, но только Intel нет. (а сервера в основном на нем)
  • 0
    Скажите, а на каком сокете будет работать Haswell? LGA1155 или что-то новое?
    • 0
      Википедия говорит что «LGA 1150 (Socket H3)».
    • +1
      Согласно википедии, на десктопах новый LGA1150 socket.
      en.wikipedia.org/wiki/Haswell_(microarchitecture)
  • +1
    в G3 удваиваются не только EU, но и буфер растеризации, Z-буфер, буфера для операций с пикселями (Stensil buffer, Color Blend)

    буферы там конечно тоже есть, но всё же удвоены блоки растеризации, ROP и т.д.

    Intel — компания честная

    Себе не верю, а Интел — верю
  • 0
    да, конечно блоки, сильно прошу прощения. Вроде, читала свой текст, но пропустила.

    Насчет вашей ссылки — не поленитесь, почитайте всю историю (мне вот пришлось из за вас)
    www.brightsideofnews.com/news/2012/1/10/exclusive-intel-lets-us-test-dx11-on-ivy-bridge.aspx
    там всех неверящих Фом (журналистов) в тот же день пригласили лично поиграть в эту игру на этом ультрабуке, после чего они извинились за свои подозрения.
    • 0
      Дык никто и не спорит что сия игра запускалась на интеловской графике.
      Просто разыгрывать «цирк с конями» (да ещё так нелепо) — как-то несерьёзно.
      • 0
        Да не было там никакого цирка. Но быть могло все, что угодно — начиная от ошибки, в результате которой действительно запасной вариант запустили вместо основного и кончая желанием конкретных устроителей шоу подстраховаться — известно, что зависание, происходящее раз в 100 лет по вине пришельцев из космоса обычно случается именно в момент демонстрации. И пойди потом докажи, что это были пришельцы.
  • +3
    Что с поддержкой 23.976?
    На 4500MHD невозможно смотреть Blu Ray при подключении к ТВ Philips с интерполяцией, потому что выбор в ваших драйверах ни 23, ни 24 не приводит к плавной картинке, частота синхронизации не совпадает. Приходится извращаться, ставить Reclock, и терпеть PalSpeedup +4% до 25fps. Неужели сложно за 5 лет сделать нормальные драйвера, чтобы Intel можно было использовать в HTPC?

    Ещё о качестве ваших драйверов говорит факт сдвига картинки на пиксель на HD2500 при использовании OpenCL, что ставит крест на универсальном OpenCL без адаптации конкретно для Intel, подробности вам расскажет Chainik ( forum.ixbt.com/users.cgi?id=info:Chainik ), разработчик OpenCL части известного frame rate conversion проекта SVP (ну если вам не наплевать на качество ваших драйверов).

    Также непонятно почему вы не открываете наружу интерфейсы доступа к низкоуровнемым процедурами QuickSync, чтобы можно было какую-то часть использовать в качественном x264.

    И кстати, что там с поддержкой h265?
    • 0
      Из всего этого набора могу пояснить только «почему вы не открываете наружу интерфейсы доступа к низкоуровнемым процедурами QuickSync». Я ответила на это в отдельном посте про Quick Sync.
  • +2
    А разве CES проходит в LA? Мне казалось, что всегда в LV…
    • +1
      Да, вы правы. Совсем заработалась. Причем, я дважды это написала. Поправила.
      Мегаспасибо!
  • 0
    >> самым популярным постом 2012 года в блоге компании Intel оказался «Игры разума. Разбираемся с Intel HD Graphics. И играем?»
    Ну дык там такие девочки на картинке, что всем сразу хотелось прочитать про оптимизацию графики.
  • 0
    Вообще интересно все происходит: сначала они контроллер памяти поместили в центральный процессор, теперь там и графический процессор оказался, перебравшись оттуда же откуда и контроллер памяти. С такими темпами скоро будет система на кристалле.
    • +1
      Справедливости ради, первыми интегрированый контроллер памяти на ЦП поместили в AMD, Intel еще долго полагалась на северный мост.
      Athlon в свое время вызвал нешуточный сдвиг симпатий на рынке, это отдельная эпическая история, когда рынок еще не знал какой тип памяти «сделает будущее» (конкретный тип DRAM), было эффективнее оставить контроллер памяти на откуп северному мосту — чипсет дешевле проектировать, чем кристалл процессора.
      Но AMD пошла ва-банк, и Athlon внезапно «выстрелил», и вместе с ним выстрелил рынок DDR-памяти, которую мы теперь имеем.
      А раз фаворит определился, то ради уменьшения latency и банально упрощения общей связки CPU+chipset глупо не встраивать контроллер памяти в CPU.

      Возможная эволюция может поглотить в конечном итоге еще очень многое.
      Посмотрите, каким эффективным Intel сделала единый мультиплексный порт PCIe + DisplayPort + печеньки в виде LightPeak, сейчас известного как Thunderbold.
      «Тяжелое» железо выносится за пределы компьютера, вы можете хоть дискретную видеокарту подключить к порту Thunderbolt при наличии у нее соответвующего адаптера.

      Дома наслаждаться топовыми играми с топовой горячей видеокартой, а в дороге и на работе нетребовательным бизнес-процессом в виде таблиц, документов, почты, презентаций и т.д. С единственным ноутбуком (или планшетом!) в обоих случаях.
      И это хорошо.
      • 0
        Справедливости ради, первыми интегрированый контроллер памяти на ЦП поместили в AMD, Intel еще долго полагалась на северный мост.

        Если говорить о х86 то да. Но те же Интел и ATI выпускали ARM/MIPS SoC задолго до того, как прогресс достиг х86.
  • –4
    На заглавной картинке девушка писает в три разноцветные струи
  • –1
    Круто! Теперь можно уверенно отказываться от ширпотреба производимого AMD и играть в FullHD.
    • +1
      отказываться от ширпотреба производимого AMD
      И переходить на ширпотреб, производимый Интелом?
      (или подразумевается, что ХД Графикс — это какое-то штучное элитное решение?)
      • 0
        После танцев с бубном для установки драйверов AMD на мой ноутбук с гибридной графикой, я об AMD не хочу вспоминать.
        У меня Core i5 1st gen + Radeon 5450. Или аппаратное ускорение не работает — с оригинальными драйверами; или яркость не регулируется — с драйверами с сайта AMD; или ноут с гибернации не просыпается — с одним из драйверов от leshcat, которій пока приходится использовать как меньшее из зол.
        Вот так HP вместе с AMD кидают людей не деньги не обновляя драйвера.
        • 0
          Предполагаете, что видеокарта от Интела с CPU/APU от AMD лучше бы работала, если бы существовала?
          • 0
            Думаю, что когда ни производитель ноутбука, ни производитель видеокарты за свою продукцию не отвечает и кидает людей на деньги, лучше не покупать устройства от этих производителей.
            У HP, вообще, кидалово — стандартная многолетняя практика.

            Сколько пользовался Intel и Nvidia, ни каких проблем с драйверами, поставил и забыл на полгода. У AMD постоянно какие-то приколы: то надо всё удалить, начисто поставить, то что-то не работает, то драйвер падает.
            А последняя утилита, clean up tool — это вообще хит. Хотите себе убить Windows 8, запустите :)
      • 0
        А ещё Catalyst глючит из-за приложения f.lux. И f.lux, пожалуй, более важное приложение для меня. Почему-то ни Intel, ни Nvidia не глючит с ним.

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.

Самое читаемое Разработка