Pull to refresh

Comments 54

UFO just landed and posted this here
Если Вы так уверены в числе 99.99%, то чем объясняется рост рынка mini-ITX?
UFO just landed and posted this here
Не спешите делать скоропалительные выводы.

Во первых, производительность памяти играет роль в системах с интегрированой графикой, о чем, собственно, статья.
Во вторых, компактные тихие мощные системы (для полноценной замены microATX десктопа, а не только для торрентов/видеоцентра) сейчас набирают популярность, о чем свидетельствует рост рынка mini-ITX (и этот процесс будет и дальше набирать обороты).
Как итог — Ваше заявление про 99.99% и обобщение на всех и остальных не полностью соответствует текущей действительности.

Да, разницу между DDR1600 и DDR2400 заметит не каждый, но разница эта вполне существенна для определенных сценариев и пренебрегают ею не все. Если раньше доля встроенной мощной графики исчислялась микродолями процента, то сейчас это уже не так, а в будущем будет ещё больше не так.
Я собираюсь купить mini-ITX, чтобы не гонять без нужды игровой компьютер. От него(mini-ITX) мне нужно, чтобы не тормозил в браузере, фильмах, минииграх. И разумеется экономия электроэнергии.
UFO just landed and posted this here
Гонка за мегагерцами памяти бессмысленна если цель — увеличение производительности интегрированного видео на 7%. Игрок не заметит никакой разницы между 33фпс и 36фпс, как и не заметит разницы между 20фпс и 22фпс, как и не заметит разницы между 100фпс и 107фпс. Как и для решения остальных стандартных пользовательских задач. Будете вы ждать пока эксель обработает заблицу 1 секунду или 1.1 секунду, разницы вы не почувствуете. Как и в том случае если вам придется ждать 100 секунд вместо 110.

Мне это напоминает самый тонкий смартфон… о чудо! вышел самый тонкий смартфон который на 0.5 мм тоньше предыдущего рекордсмена! все вперед покупать самый тонкий смартфон, и не забудьте купить к нему чехол толщиной 2мм вместо вашего предыдущего чехла 1.5мм!
Не забывайте что производительность это результат работы всех компонентов.
Вот вы собираете систему и вместо i5 выбрали i7, вместо hdd взяли ssd, и память шустрее. Пусть каждый компонент даст +5% и уже приличная разница.
У меня в mini-ITX корпусе вполне комфортно жил GF760, занимая совсем немного места. Потом тудаже встал (с трудом, немного поцарапавшись при установке) GF970 от асуса с ОГРОМНЫМ радиатором. Так что полноценный игровой системник в mini-ITX формфакторе это реальность. Единственное, что это будет совсем не тихое и не холодное решение.
По поводу статьи — очень сомневаюсь, что кто-то будет ставить топовый i7 и топовую память, но не найдет при этом денег на мало-мальского жирафа 950/960. Да и с учетом нынешних техпроцессов, 500 ватный бп (для mini ITX я не смог найти мощнее) вполне достаточен для i7 и 970 жирафика.
Пссыть. По секрету. Есть mini-ITX с PCIe x16 под видяшечку.
Да все mini-ITX платы имееют PCIe x16. Но не все корпуса позволяют использовать этот разъем. А из тех, что позволяют, не во всех есть место для двухслотовой карты (ставить маломощную однослотовую и смысла особого нет, когда можно встроенной графикой обойтись). Оставшиеся mini-ITX корпуса с возможностью установки двухслотовых карт уже мало отличаются по размеру от microATX.
UFO just landed and posted this here
Лучше пусть остановятся, а то монополизируют рынок, а потом еще и «запретят» ставить дискретки. Получим не модифицируемые десктопы, как это с ноутбуками и планшетами.
Если встроенная карточка будет справляться с играми, то норм.
Есть такие движки, что даже 4 титана не в состоянии отрендерить без тормозов, была бы моща, а потратить куда, найдётся, от мега крутой картинки, до фреймворка с низким порогом вхождения.
> даже 4 титана

Сомневаюсь, что это игровые движки. Обычно даже требовательные игры, пусть и на средних или низких настройках, но запускаются на мейнстриме. А 4 титана дороговато стоят для рядового геймера.
Так производители игр ориентируются на средние, иногда немного выше средних возможностей, как только мощность 4+ титана станет средней в ход пойдут рейтресинговые движки, заданный фпс они выдают на любой железке от мощности зависит только качество.
https://brigade.otoy.com/
Две видюхи пока недостаточно сильны для рендера без "песка".

TDP титана чуть выше 200 Вт, говорит Гугл.

Даже если снизить техпроцесс и оптимизировать энергпотребление другими способами, выделяемая мощность составляет около 400 ватт. У самых топовых интеловских процессоров она меньше 150 точно.

Думаю, в таком случае, придётся принудительно ставить систему охлажения на полкиловатта отводимой мощности, поскольку иначе вокруг сокета будет полно оплавленного текстолита. :)
Я могу на это ответить только ссылкой на известный комикс xkcd: https://xkcd.com/605/

Просто я думаю, что 4+ титана будут утрамбованы в камень не в 7-м и не в 8-м поколении корок. Сначала увеличивали частоту, потом число ядер, теперь снижают техпроцесс, в следующем десятилетии придумают что-то ещё.
Только вы забываете, что дисплеи тоже растут… годика эдак 4 назад мейнстримом было 1366х768. Сейчас уже покупать ноутбук с таким экраном будет разве что студент с очень ограниченным бюджетом, ну или офисный работник, которому «лишь бы работало». Практически повсеместно идет 1920х1080, 1600х900, а местами даже 2160х1920 проклевывается.
Даже кадр на фуллХД против кадра на хд вчетверо больше, что уж про UHD говорить и прочие 4к.
Так что может выйти так, что пока научатся утрамбовывать эквивалент четырех титанов в один относительно холодный чип с тдп хотя бы ватт 30-50, все будут тыкать пальцем и говорить «фу, как ты можешь сидеть за этим фуллхд 15» экраном, ведь в моде уже окулус рифт 7 с разрешением 8к!"
Т.е. это по сути бесконечная гонка.
Хотя прогресс у интела безмерно радует, процессор особо не улучшается, но зато видеоядро стало заметно сильнее в сравнении со старыми поколениями. Чего греха таить, на среднем ноуте за 700 баксов без дискретки и с фулдхд экраном на базе последнего кор5 можно в даже довольно свежие игрульки более-менее комфортно играть.
процессор особо не улучшается, но зато видеоядро стало заметно сильнее

По мне так это больше смахивает на самовнушение, раньше видеоядро было встроено в северный мост, и это было логично, Зато сейчас половину площади процессора занимает видюха которая мне ненужна.

А что касательно роста разрешения второй плюшкой новых движков является меньшая зависимость от разрешения — результаты расчёты предыдущего кадра используются в последующем.
А смысл ставить видеоядро в северный мост? Сделаем жирнее — получится уже не мост, а видеокарта с функцией управления периферией.
Хотя не мешало бы иметь две разные линейки — с встроенной графикой и без оной (естественно, не просто отключенной программно, а физически отсутствующей на кристалле, а вместо нее — больше блоков для процессора). Т.е. иметь и гибриды для всяких ультрабуков, и чисто процессоры для всякого безобразия вроде «геймерских ноутбуков».
А зачем она в процессоре? сделали видеокарту с функцией процессора (обратите внимание на площадь которую отдали встройке на её месте могли быть ядра или просто снимать больше процессоров с вафли).
Сейчас даже если оно тебе не надо, возьми да купи, а раньше был на выбор матплата "с" или "без".
Безусловно, топовые конфигурации будут рвать встроенные «четыре титана», как тузик грелку. Но подавляющее большинство людей более чем устроит встроенное видео, на котором они смогут играть в относительно свежие игры на средних настройках. Не всем нужна картинка 120 фпс в разрешении 3840х2160 при ультранастройках.

И для таких процессоров, действительно, не нужен слот под видеокарту на материнской плате. Почему бы и не выпускать бюджетные матплаты без лишних слотов.

В реальности никто не запретит дискретки. Просто их лишатся бюджетные конфигурации.
Сомневаюсь на счет рейтрейсера. Слишком неудобен он для анимации. Скорее будет некий симбиоз обычного рендера и рейтресинга, Например отражения, преломления, тени и а пр. можно будет переложить на рейтрейсер, кстати сейчас уже так делают.
И тут на сцену (внезапно (как обычно)) выходят AMD с разлоченными множителями с разрешёнными "дискретками". Да, с ноутбуками грустно, но только в бюджетном сегменте, в хай-энд комплекте не приходится задумываться о таком.

А с чем связано то, что для теста было выбрано предыдущее поколение процессоров, вместо последнего?
откровенно говоря, на разницу в цене между Broadwell и Skylake можно купить отдельную видеокарту с пассивным охлаждением
Core i7 в mini-ITX для игр без дискретки? Вряд ли такое будет собирать кто-то сведущий в компьютерах, по моему мнению. Учитывая, что общая производительность упрется в видеоподсистему, можно смело ставить Core i3, ну или Core i5, если хочется некоего запаса.
Собственно, на i3-4330 вполне себе бегают все игры на минималках (дискретки у меня по некоему проклятию физически ломаются через месяц-два, часто утягивая за собой мать)
У вас ссылка битая, позвольте поправить. http://www.phoronix.com/scan.php?page=article&item=amd_am1_ddr3&num=2

↑ Ссылка сразу на вторую страницу, где начинаются бенчмарки.
UFO just landed and posted this here
Поиграть в FullHD, пусть и не с максимальными настройками в Metro Last Light ранее мне не удавалось, а тут больше 30 кадров в секунду в среднем…
Metro Last Light — странная игра. На моем старом десктопе с HD7770 и Intel Core 2 Quad Q8200 играть в нее было невозможно на любых настройках. Получалось 7-15фпс. Версия из стима, Windows 7.
Но я эту игру все-таки прошел. Знаете на чем? На старом Macbook Pro 13' с HD4000 и без ретины, да еще и на внешнем мониторе с Full HD. Какие там конкретно настройки были, я сказать не могу, в версии под OS X там просто был доступен ползунок общего качества. У меня стояло на 40%. Получил 20-25 фпс.
Там глючит не весь движок, а отдельные настройки — вода на стенах, объёмный свет. Если их отключить, то работает нормально. Гонял на GTX760 в 4К без сглаживания.
В Метро физика сильную нагрузку дает. Если нет жирафа который ее обрабатывает, то проц умирает, поэтому на радиках физику лучше отключить.
Я сейчас уже точно не помню, какие настройки устанавливал на винде, но, как правило, если вижу лаги, сразу отключаю сглаживание, тени и прочее, связанное с физикой.
По поводу нагрузки на процессор. Не думаю, что мобильный двухъядерный Core i5-3210M значительно превосходит пусть старый, но все-таки десктопный четырехъядерный Q8200 (который на уровне более известного Q6600). Скорее всего, когда делали порт под мак, просто что-то в движке отключили.
Значительно превосходит. Мой двухядерный i5 Sandy Bridge в лаптопе кодирует видео чуть быстрее, а компилирует ядро в 2.5 раза быстрее, чем четырехядерный Q6600.Тактовая частота при этом у Q6600 выше.
Что видно из графиков? Самый явный вывод — производительность интегрированной графики зависит от частоты оперативной памяти напрямую.

Из графиков видно только одно — частота памяти оказывает мизерное влияние на производительность.
Простите, можно я тут поофтоплю? Всё равно выше уже развели дебаты про выделенная vs встроенная.

Меня вот огорчает, что при наличии отдельной видюхи встроенная совсем простаивает.
Конечно, мощности у нее незначительные, но и они могли бы быть полезными. Например, при использовании всякого OpenCL/CUDA рендера на видяхи, графический интерфейс винды встает колом. Этого можно было бы избежать, если его запускать на встройке. А еще есть (скорее уже была) такая штука — Virtu MVP, которая даже умеет объединять ресурсы двух видях для одного приложения и дает небольшой прирост fps в играх. Но, к сожалению, Virtu MVP больше не развивается, а существующие версии достаточно сырые (устраивают BSOD). Знаю, есть уже DirectX 12, но он поможет только приложениям, которые написаны именно под него.

Может быть есть какие-либо способы использования обоих видеокарт? Если без задействования для одного рендера, то, хотя бы, разделение труда: композиция рабочего стола и слабые приложения на встройке, тяжелые — на отдельной карте.
Говоря другими словами, можно ли на десктопе сделать как на ноуте с двумя картами?
Кстати, интересно, как оно реализуется на ноутбуках? Для обмена данными между картами существует некий специальный аппаратный механизм или это просто копирование через общую память?
Копирование видеобуфера. Даже при использовании дуэтов, видеокарты полностью рендерят геометрию, полное разделение труда наблюдается только при поочерёдном рендере последовательности кадров, но тут возникает проблема задержки,
Хотите получить моральное удовлетворение от использования простаивающей встройки? поднимите стрим — встройка сжимает видео, только запаситесь каналом пошире и партнёркой — встройка не умеет качественно сжимать на битрейтах ниже 4 Мбит, а без партнёрки сервер не будет пересжимать ваше творчество для того, чтобы его могли посмотреть все.

Даже при использовании дуэтов, видеокарты полностью рендерят геометрию, полное разделение труда наблюдается только при поочерёдном рендере последовательности кадров

Ну, таки, вышеописанная софтина разделяет труд. Не знаю, как именно, но явно не по кадрам, т.к. видяхи очень разные по мощности, и пока встройка нарисует один кадр, отдельная видяха нарисует 15. Опять же, на ноутбуке, когда активна выделенная видюха, встроенная же не отключается, а продолжает рисовать другие программки и рабочий стол.

Хотите получить моральное удовлетворение от использования простаивающей встройки?

Хочу получить практическую пользу. С играми не особо критично, а вот для тяжелых приложений было бы полезно (см. про рендер и вставание колом).

поднимите стрим — встройка сжимает видео

Стримы мне не интересны. Да и тут есть хитрости, если основной видеокартой является выделенная, то встройка будет неактивна. Где-то читал, что в нее надо тоже воткнуть монитор, чтобы она заработала (хоть для сжатия видео, хоть для чего). А это не удобно.

Копирование видеобуфера.

Значит можно dynamic switchable graphics включить и на дектопе? Вот только интересно, как. Дрова, вроде одни и те же, сами определяют на чем они работают.
Я как-то писал в нвидию отзыв что им надо запилить поддержку стрима на твич прямо из драйверов, не знаю были ли у них на это планы, но уже через полгода появилось, возможно и вам следует им написать, подробно изложив суть проблемы и не забыв добавить что решение её "позволит вам более активно рекомендовать их продукцию на форумах к покупке" — вот такой аргумент приводил я.
Тогда мне надо писать в AMD. =)
Хм… Или в Intel? В чьем драйвере реализуется магия?
Если у вас проблема из области тормозит интерфейс при большой нагрузке на дискретку, то надо интерфейс рендерить на встройке и подключать монитор к ней же, результат работы дискретки копировать в видеобуфер встройки, а знать когда результат можно забирать лучше знать драйверу дискретки, то есть писать лучше в АМД. так как технология уже отработана на ноутбуках, то есть ненулевая вероятность, что прислушаются. Тут правда надо учесть что в играх от этого упадёт фпс — копирование не бесплатная процедура.
Заметка для рекламного буклета компании, а не технического сайта.

Почему решили установить память именно так, а не как рекомендовано для DDR3 вообще и мануалом для этой платы в частности? Не знали про ODT или не стали обращать внимание?
Где какие-то новые результаты? В первом комментарии же написали, что 99.99% хватит банальной DDR3-1600. А на 5% прироста проще сэкономить, вложив в объём памяти или другое. Ни 5, ни 7% прироста заметно не будет — тормоза это не уберёт, там, где хватает FPS — не будет заметно тем паче. Дискретные карты одного поколения могут отличаться по FPS в 2-5 раз — вот это уже заметная разница.
«Еще более существенная прибавка к производительности будет в случае разгона оперативной памяти собственными силами.» — где проверка сего голословного утверждения? Прибавку можно назвать существенной, если мы смогли поднять режим качества без потери скорости, либо убрать тормоза при прочих равных настройках.

Давно известно (больше десяти лет), что быстрая память помогает с кодированием видео, архивацией (10-20%) и производительностью интегрированной графики (в среднем 5-7%). Если вы хотите рассказать что-то новое — прошу, а для меня это такая же статья, как установка OpenWRT на очередной D-Link.
Искренне хочу прочитать что-то интересное про железо, но не наблюдаю.
UFO just landed and posted this here
А прирост 7% (разгон не учитываем, речь про память)? Что-то я сильно-сильно сомневаюсь.
UFO just landed and posted this here
Sign up to leave a comment.