Comments 33
Ого, вот где я уже сейчас могу поиграть в GTA IV без тормозов!
+4
Вот бы ещё научиться правильно писать с использованием мощностей GPU…
А ведь под продукцию Nvidia даже SDK какие-то выходили.
А ведь под продукцию Nvidia даже SDK какие-то выходили.
+1
Это совершенно несложно. Можно с легкостью начать программировать под NVIDIA видеокарточку (предварительно удостоверившись здесь что она поддерживает CUDA: www.nvidia.com/object/cuda_learn_products.html). Для этого надо скачать последний драйвер, тулкит и SDK. В последнем масса семплов, которые могут послужить примером или строительным блоком вашего алгоритма. Мой скромный вклад в SDK тоже имеется.
На GPU перекладывается далеко не любая задача, и уж тем более не стоит думать что «сейчас перекомпилирую готовый c-код и все заработает в 100 раз быстрее» =). CUDA — это расширение Си, но единственный челендж при написании программ на ней является переосмысление алгоритма в терминах GPU и стрим процессинга вообще.
Пробуйте, смотрите. Если возникнут какие-нибудь вопросы по CUDA — пишите в личку.
На GPU перекладывается далеко не любая задача, и уж тем более не стоит думать что «сейчас перекомпилирую готовый c-код и все заработает в 100 раз быстрее» =). CUDA — это расширение Си, но единственный челендж при написании программ на ней является переосмысление алгоритма в терминах GPU и стрим процессинга вообще.
Пробуйте, смотрите. Если возникнут какие-нибудь вопросы по CUDA — пишите в личку.
+5
Более того, я даже читал предсказания, что скоро процессор и GPU сольются воедино. У нас вот у аспирантов стоит нечто с невесть как подключенными четырьмя 280 джифорсами. Все это держится на убунте и ведутся разработки под CUDA. Все хочу принять участие…
+2
консюмерские ПК — это пять :)
0
вот бы в таком универе поучиться!
наверняка же у студентов доступ есть.
наверняка же у студентов доступ есть.
0
«По мнению японских инженеров, в будущем использование GPU в суперкомпьютерах станет обыденным делом. „
По моему мнению уже трудно называть графическим процессором однокристальный 240-элементный кластер для векторных вычислений. Там же практически ничего специализированного под формирование изображения не осталось.
По моему мнению уже трудно называть графическим процессором однокристальный 240-элементный кластер для векторных вычислений. Там же практически ничего специализированного под формирование изображения не осталось.
+1
А я кстати давно заметил что мощность графических процессоров превосходит мощность обычных CPU. Правда тогда не придал этому значения.
+1
После этого возникают вопросы. Так ли искренни разработчики процессоров, которые частенько заявляют, что подходят к пределу, и если ничего принципиально нового не изобретут, то развитие технологии замедлится? И на этом фоне предлагают нам перейти на новый проц, частота которого на 200-300 МГц больше на каждом ядре (из 2, 4).
Бизнес… Деньги….
Бизнес… Деньги….
0
Довольно искренне. Если бы графические процессоры могли заменить CPU, это бы уже произошло. Разница в том, что в GPU мощность достигается за счёт того, что он содержит много конвееров, которые могут производить только довольно простые операции. В CPU же должно быть заложено много логики. из-за этого, в частности, не все параллельные алгоритмы, которые работают на кластерах в традиционном понимании могут быть без изменений перенесены на GPU.
0
Может, не надо было Intel популяризировать x86, а остановиться на RISC?
+2
Современные процы это полюбой монстрообразный эмулятор x86 с RISC ядром. И от х86 остались только команды, не имеющие ничего общего с самой логикой работы. Хотя на разбор инструкций в микрооперации конечно тратится солидный процент потенциальной производительности…
А по поводу альтернативных архитектур — платформа Itanium как раз и создавалась в противовес x86.
А по поводу альтернативных архитектур — платформа Itanium как раз и создавалась в противовес x86.
0
А процессоры не от Intel? Например, PowerPC, ARM, они достаточно популярны.
+2
Ну я против ничего не имею. Собссно, ARM моя любимая архитектура %) Просто речь шла об х86.
А насчет популяризации — тоже вопрос очень спорный. Не было бы единого стандарта — не было бы и таких масштабов и проникновения отрасли. Я считаю что в этом случае, подобный монополизм архитектуры пошел на пользу. Иначе, был бы зоопарк малосовместимых друг с другом систем (достаточно вспомнить советские журналы по радиотехнике с их бесчисленным количеством «ЭВМ своими руками», которые как правило были абсолютно несовместимы друг с другом, хоть и выполнены на КР580)
А насчет популяризации — тоже вопрос очень спорный. Не было бы единого стандарта — не было бы и таких масштабов и проникновения отрасли. Я считаю что в этом случае, подобный монополизм архитектуры пошел на пользу. Иначе, был бы зоопарк малосовместимых друг с другом систем (достаточно вспомнить советские журналы по радиотехнике с их бесчисленным количеством «ЭВМ своими руками», которые как правило были абсолютно несовместимы друг с другом, хоть и выполнены на КР580)
0
Объясните неучу, в чем разница между GPU и CPU? Я имею в виду архитектурно, а не то что цпу это центральный процессор, а гпу — графический.
0
Принципиально отличие в классах (по Флинну вроде): CPU — это SISD (single instruction single data), а GPU — это SIMD (single instruction multiple data). Ну и второе существенное (на практике отличие) — это то, что нынешние CPU имеют очень маленький мозг (ALU) в процентном соотношении к объемам самого процессора, в то время как большую часть GPU занимают именно арифметико-логические устройства.
Картинки можно посмотреть здесь, на странице 14 вверху
developer.download.nvidia.com/compute/cuda/1_0/NVIDIA_CUDA_Programming_Guide_1.0.pdf
Картинки можно посмотреть здесь, на странице 14 вверху
developer.download.nvidia.com/compute/cuda/1_0/NVIDIA_CUDA_Programming_Guide_1.0.pdf
0
На GPU нельзя писать программы общей логики. Они для этого не предназначены. Сам процессор по сути это целая куча конвейеров которые выполняют стандартные математические операции, в основном векторная и матричная алгебра.
0
Если гпу такие крутые для вычислений, то почему ЦПУ не используют какие-то наработки от видеокарт для повышения производительности.
Понятно, что для использования ГПУ все нужно переписывать, но как то себе я все просто представил, когда в будущем в системнике нет ЦПУ, а стоит сколько нужно ГПУ или как они там будут называться, и человек может добавлять их в зависимости от материнки сколько нужно. А система уже сама будет распаралеливать ресурсы для вычислений и обсчета графики в играх например.
А если 3д не используется, например это фотошоп какой-нибуть, то больше ресурсов достает ему.
Правда все это дилетантские размышления такие)
Понятно, что для использования ГПУ все нужно переписывать, но как то себе я все просто представил, когда в будущем в системнике нет ЦПУ, а стоит сколько нужно ГПУ или как они там будут называться, и человек может добавлять их в зависимости от материнки сколько нужно. А система уже сама будет распаралеливать ресурсы для вычислений и обсчета графики в играх например.
А если 3д не используется, например это фотошоп какой-нибуть, то больше ресурсов достает ему.
Правда все это дилетантские размышления такие)
+1
На самом деле — всё к этому идёт. В лине новый КДЕ, а в Винде — стиль оформления Аэро. Всё это дело не с проста, а потихонечку использует возможности видюхи для ускорения построения окон.
Более того, самое главное нововведение WPF (Новой системы рисования виндовых приложений от майкрософт) — это то, что ВСЁ вообще рендерится через DirectX и ускоритель на карточке.
И всё таки, надо понимать разницу между типами процессоров, особенно между CISC и RISC. Циск — это стандартные процы для настольных систем. Они собраны для того, чтобы выполнять много разных инструкций. Риски — это процессоры с урезанным набором инструкций, которые хорошо выполняют определённые действия. Например, обработка графики. Видеокарточке не нужны функции, которые позволяют ей улучшить обработку звука. Так что в GPU избавились от некоторых инструкций. Другое дело, что то, что они умеют делать, они делают на невероятных скоростях.
Я всё же думаю, что пока от CPU избавляться никто не собирается.
Более того, самое главное нововведение WPF (Новой системы рисования виндовых приложений от майкрософт) — это то, что ВСЁ вообще рендерится через DirectX и ускоритель на карточке.
И всё таки, надо понимать разницу между типами процессоров, особенно между CISC и RISC. Циск — это стандартные процы для настольных систем. Они собраны для того, чтобы выполнять много разных инструкций. Риски — это процессоры с урезанным набором инструкций, которые хорошо выполняют определённые действия. Например, обработка графики. Видеокарточке не нужны функции, которые позволяют ей улучшить обработку звука. Так что в GPU избавились от некоторых инструкций. Другое дело, что то, что они умеют делать, они делают на невероятных скоростях.
Я всё же думаю, что пока от CPU избавляться никто не собирается.
+2
>> это то, что ВСЁ вообще рендерится через DirectX и ускоритель на карточке.
не всё, только самые ресурсоемкие операции — composition растров (альфа-блендинг), афинные преобразования растров (сдвиг, растяжение, поворот), ClearType-блендинг в шейдере (по сути, просто каждый R-G-B канал блендится независимо от других), вычисление градиентов и текстурного наложения
а вот растеризация векторных примитивов производится на CPU, т.к. на GPU переложить это довольно затруднительно (сам алгоритм)
это довольно дырявая абстракция (по Джоэлу), т.к. разработчику не очевидно, какие операции вычисляются быстро, а какие — не очень
например, если делать приложение, которое рисует граф (ноды, связанные линиями), то видно, что перерисовка этих самых линий очень сильно тормозит, и чем длиннее линия — тем сильнее
не всё, только самые ресурсоемкие операции — composition растров (альфа-блендинг), афинные преобразования растров (сдвиг, растяжение, поворот), ClearType-блендинг в шейдере (по сути, просто каждый R-G-B канал блендится независимо от других), вычисление градиентов и текстурного наложения
а вот растеризация векторных примитивов производится на CPU, т.к. на GPU переложить это довольно затруднительно (сам алгоритм)
это довольно дырявая абстракция (по Джоэлу), т.к. разработчику не очевидно, какие операции вычисляются быстро, а какие — не очень
например, если делать приложение, которое рисует граф (ноды, связанные линиями), то видно, что перерисовка этих самых линий очень сильно тормозит, и чем длиннее линия — тем сильнее
0
Ну на самом деле используют, вот Интел обещает Larabee выпустить. Правда, одной лишь перекомпиляцией исходников ИМО там не обойдется.
А в нынешних процессорах добавлять элементы SIMD уже практически не имеет смысла. Есть SSE и прочие, но все это надстройки, которые не обеспечивают обратной совместимости. Т.е. все такие расширения идут вразрез с архитектурой X86, виртуальными машинами которой современные процессоры по сути и являются.
PS Мне кажется, что Ваши размышления не так уж далеки от реальности.
А в нынешних процессорах добавлять элементы SIMD уже практически не имеет смысла. Есть SSE и прочие, но все это надстройки, которые не обеспечивают обратной совместимости. Т.е. все такие расширения идут вразрез с архитектурой X86, виртуальными машинами которой современные процессоры по сути и являются.
PS Мне кажется, что Ваши размышления не так уж далеки от реальности.
0
любые пароли за 5 секунд ))
0
Название какое красивое: «Ласточка».
0
Примечательно, что по результатам топ-500 R-peak(теоритически максимально возможная производительность) более чем в два раза превосходит R-max(производительность на тестовом программе), хотя у других разрыв где-то в районе 30 процентов. Видимо, мощь GPU не получилось сразу использовать по полной.
0
Sign up to leave a comment.
Tsubame, японский суперкомпьютер на GPU