Pull to refresh

Comments 33

Ого, вот где я уже сейчас могу поиграть в GTA IV без тормозов!
Вот это приставочка, в мою квартиру не влезет, а поиграть хочется )))
Вот бы ещё научиться правильно писать с использованием мощностей GPU…
А ведь под продукцию Nvidia даже SDK какие-то выходили.
Это совершенно несложно. Можно с легкостью начать программировать под NVIDIA видеокарточку (предварительно удостоверившись здесь что она поддерживает CUDA: www.nvidia.com/object/cuda_learn_products.html). Для этого надо скачать последний драйвер, тулкит и SDK. В последнем масса семплов, которые могут послужить примером или строительным блоком вашего алгоритма. Мой скромный вклад в SDK тоже имеется.
На GPU перекладывается далеко не любая задача, и уж тем более не стоит думать что «сейчас перекомпилирую готовый c-код и все заработает в 100 раз быстрее» =). CUDA — это расширение Си, но единственный челендж при написании программ на ней является переосмысление алгоритма в терминах GPU и стрим процессинга вообще.
Пробуйте, смотрите. Если возникнут какие-нибудь вопросы по CUDA — пишите в личку.
Более того, я даже читал предсказания, что скоро процессор и GPU сольются воедино. У нас вот у аспирантов стоит нечто с невесть как подключенными четырьмя 280 джифорсами. Все это держится на убунте и ведутся разработки под CUDA. Все хочу принять участие…
Интеловская архитектура Larabee — оно самое
UFO just landed and posted this here
вот бы в таком универе поучиться!
наверняка же у студентов доступ есть.
«По мнению японских инженеров, в будущем использование GPU в суперкомпьютерах станет обыденным делом. „
По моему мнению уже трудно называть графическим процессором однокристальный 240-элементный кластер для векторных вычислений. Там же практически ничего специализированного под формирование изображения не осталось.
А я кстати давно заметил что мощность графических процессоров превосходит мощность обычных CPU. Правда тогда не придал этому значения.
После этого возникают вопросы. Так ли искренни разработчики процессоров, которые частенько заявляют, что подходят к пределу, и если ничего принципиально нового не изобретут, то развитие технологии замедлится? И на этом фоне предлагают нам перейти на новый проц, частота которого на 200-300 МГц больше на каждом ядре (из 2, 4).
Бизнес… Деньги….
Довольно искренне. Если бы графические процессоры могли заменить CPU, это бы уже произошло. Разница в том, что в GPU мощность достигается за счёт того, что он содержит много конвееров, которые могут производить только довольно простые операции. В CPU же должно быть заложено много логики. из-за этого, в частности, не все параллельные алгоритмы, которые работают на кластерах в традиционном понимании могут быть без изменений перенесены на GPU.
Может, не надо было Intel популяризировать x86, а остановиться на RISC?
Современные процы это полюбой монстрообразный эмулятор x86 с RISC ядром. И от х86 остались только команды, не имеющие ничего общего с самой логикой работы. Хотя на разбор инструкций в микрооперации конечно тратится солидный процент потенциальной производительности…

А по поводу альтернативных архитектур — платформа Itanium как раз и создавалась в противовес x86.
А процессоры не от Intel? Например, PowerPC, ARM, они достаточно популярны.
Ну я против ничего не имею. Собссно, ARM моя любимая архитектура %) Просто речь шла об х86.

А насчет популяризации — тоже вопрос очень спорный. Не было бы единого стандарта — не было бы и таких масштабов и проникновения отрасли. Я считаю что в этом случае, подобный монополизм архитектуры пошел на пользу. Иначе, был бы зоопарк малосовместимых друг с другом систем (достаточно вспомнить советские журналы по радиотехнике с их бесчисленным количеством «ЭВМ своими руками», которые как правило были абсолютно несовместимы друг с другом, хоть и выполнены на КР580)
Речь шла не только о x86, а даже не только о SISD-процессорах.
Объясните неучу, в чем разница между GPU и CPU? Я имею в виду архитектурно, а не то что цпу это центральный процессор, а гпу — графический.
Принципиально отличие в классах (по Флинну вроде): CPU — это SISD (single instruction single data), а GPU — это SIMD (single instruction multiple data). Ну и второе существенное (на практике отличие) — это то, что нынешние CPU имеют очень маленький мозг (ALU) в процентном соотношении к объемам самого процессора, в то время как большую часть GPU занимают именно арифметико-логические устройства.
Картинки можно посмотреть здесь, на странице 14 вверху
developer.download.nvidia.com/compute/cuda/1_0/NVIDIA_CUDA_Programming_Guide_1.0.pdf
На GPU нельзя писать программы общей логики. Они для этого не предназначены. Сам процессор по сути это целая куча конвейеров которые выполняют стандартные математические операции, в основном векторная и матричная алгебра.
То есть удел GPU — манипуляция большими объемами данных? Так?
Ну фактически да. Большой-большой, жутко распараллеленый калькулятор =)
Если гпу такие крутые для вычислений, то почему ЦПУ не используют какие-то наработки от видеокарт для повышения производительности.

Понятно, что для использования ГПУ все нужно переписывать, но как то себе я все просто представил, когда в будущем в системнике нет ЦПУ, а стоит сколько нужно ГПУ или как они там будут называться, и человек может добавлять их в зависимости от материнки сколько нужно. А система уже сама будет распаралеливать ресурсы для вычислений и обсчета графики в играх например.

А если 3д не используется, например это фотошоп какой-нибуть, то больше ресурсов достает ему.

Правда все это дилетантские размышления такие)
На самом деле — всё к этому идёт. В лине новый КДЕ, а в Винде — стиль оформления Аэро. Всё это дело не с проста, а потихонечку использует возможности видюхи для ускорения построения окон.

Более того, самое главное нововведение WPF (Новой системы рисования виндовых приложений от майкрософт) — это то, что ВСЁ вообще рендерится через DirectX и ускоритель на карточке.

И всё таки, надо понимать разницу между типами процессоров, особенно между CISC и RISC. Циск — это стандартные процы для настольных систем. Они собраны для того, чтобы выполнять много разных инструкций. Риски — это процессоры с урезанным набором инструкций, которые хорошо выполняют определённые действия. Например, обработка графики. Видеокарточке не нужны функции, которые позволяют ей улучшить обработку звука. Так что в GPU избавились от некоторых инструкций. Другое дело, что то, что они умеют делать, они делают на невероятных скоростях.

Я всё же думаю, что пока от CPU избавляться никто не собирается.
>> это то, что ВСЁ вообще рендерится через DirectX и ускоритель на карточке.

не всё, только самые ресурсоемкие операции — composition растров (альфа-блендинг), афинные преобразования растров (сдвиг, растяжение, поворот), ClearType-блендинг в шейдере (по сути, просто каждый R-G-B канал блендится независимо от других), вычисление градиентов и текстурного наложения

а вот растеризация векторных примитивов производится на CPU, т.к. на GPU переложить это довольно затруднительно (сам алгоритм)

это довольно дырявая абстракция (по Джоэлу), т.к. разработчику не очевидно, какие операции вычисляются быстро, а какие — не очень

например, если делать приложение, которое рисует граф (ноды, связанные линиями), то видно, что перерисовка этих самых линий очень сильно тормозит, и чем длиннее линия — тем сильнее
Ну на самом деле используют, вот Интел обещает Larabee выпустить. Правда, одной лишь перекомпиляцией исходников ИМО там не обойдется.
А в нынешних процессорах добавлять элементы SIMD уже практически не имеет смысла. Есть SSE и прочие, но все это надстройки, которые не обеспечивают обратной совместимости. Т.е. все такие расширения идут вразрез с архитектурой X86, виртуальными машинами которой современные процессоры по сути и являются.
PS Мне кажется, что Ваши размышления не так уж далеки от реальности.
Элкомсофт этим уже занят. Правда, временные рамки поболее.
Название какое красивое: «Ласточка».
Примечательно, что по результатам топ-500 R-peak(теоритически максимально возможная производительность) более чем в два раза превосходит R-max(производительность на тестовом программе), хотя у других разрыв где-то в районе 30 процентов. Видимо, мощь GPU не получилось сразу использовать по полной.
Sign up to leave a comment.

Articles