Pull to refresh
130
0

Azure Solution Architect

Send message
уже ведь наши военные признались, что это неудачное испытание Булавы.
vz.ru/society/2009/12/10/357361.html
можно конечно рассуждать на тему- заговора правительства и пришельцев, но оставлю это кому нибудь другому.
В медицини все это отвртительно.
Но так не только в ней ведь. Вот в методичке по непонятному мне предмету- Интеллект, мышление, творчество вычистал такие темы рефератов:
19. Полевые измерения в организме человека
20. Информационный обмен на полевом уровне

Вроде, как официальная наука этого не доказала, зато это уже в курсе обучения есть. Не знаю как кто, а я уже нашел адрес комиссии по лженауке. А ведь этому официально учат в вузе на технической специальности.

так же очень не понимаю сравнение в этой методичке компьютерных вирусов «со средой распрастронения дискета» (как то уж и старо и не совсем корректно), а так же фраза про торсионные поля тела человека после его гибели…

Помоему проблема куда шире чем лекарства, маги и щаманы по всюду и кто то еще из них учит молодое поколение инженеров!
с братьями по духу матом не общаются. да и для этого есть более удобные способы…
затем что бы делать описание того как это работает, что бы через неделю не смотреть на код как на чужой.
Зачем такие комментарии в коде вообще?! не засоряйте код!
Хотелось бы услышать ответ специалистов по cuda или людей из nvidea.

Квантование на массивнопараллельной системе- что новенье. Не забывайте про то что загрузка из памяти оперативной в память видеокарты- очень тяжелая операция. А если вы все храните в памяти видеокарты и между ними переключаетесь, то могу сказать из личного опыта 4 гига- это не много для задач обработки матриц к примеру.
Правда это для операций математических. Для работы с графикой в основном используется шейдерная память, и если испольуют ее, то тут скорее ситуация просто обработал запрос. Выгрузил из памяти, загрузил новый. Тут тогда не какой параллельности, тут будет просто как вебсервер. запрос ответ.запрос ответ. и не какого хранения.
Еще раз повторюсб- хотелось бы услышать, что нибудь по подробнее либо от автора статьи, либо от людей связанных с nvidea и cuda
На сколько я помню с курса по cuda в tesla 4 гигабайта оперативной памяти. Вызов Cuda может быть из функций kernel. Вызывать kernel можно с cpu. Выбор ядра для вычисления нами не контролируется. и мы не можем управлять каждым отдельным вычислительным ядром в приямую. так что КАК БАЛАНСИРОВАТЬ НАГРУЗКУ на вычислительные ядра тяжело.

Вы не путайте обычную многопроцессорную систему с массивно параллельными вычислителями такими как графическая карта. Тут все несколько сложнее чем на серверах со стандартными cpu.

У меня вопрос есть:
Что имеется в виду под одновременным подключениями 10-1000 пользователей?
Ведь все эти 240 ядер работают параллельно над ОДНОЙ задачей а не по ядру на пользователя. Получается что диспечер задач просто держит какое то количество подключений и какое то количество задач в очереди?
Помоему Oracle проще будет купить Sun без MySQL. А там уже разбираться с этими чиновниками. А то что то уж столько возни вокруг этой сделки.
Конкретно на мероприятие вообще как угодно попасть можно было. Регистрация была месяца 2 назад, но все кто приходил, всех пускали. Там ходил сдух, что было заявлено 1000 участников а пришло 1520. В частности у меня пару знакомых узнали о мероприятии в день мероприятия и пришли, их пропустили. Так что думаю достаточно было просто проходить мимо.
windows server 20008r2 это одно. а windows hpc server 2008r2 -это немножко другое.(К примеру по датам: ctp версия win hpc server 2008r2 вышел в мае 2009 только, в то время как просто win server 2008r2 beta вышла в начале весны 2009. ) Bсе что я находил -это 2008r2 ctp и beta. Cегодня специально проверил в поиске.
Не думаю что версия новее чем эта где нибудь есть в публичном доступе. а тут только CTP www.microsoft.com/hpc/en/us/default.aspx
Если не так, то поправте меня.
В какую сторону будет двигаться windows hpc server, что нового в нем появится (текущая версия 2008. 2008r2 в ctp уже. А что в финальной версии будет и что дальше будет?).
Какие планы у Microsoft в направлении высокопроизводительных вычислений суперкомпьютерных технологий?(не просто так, от нечего делать был создан windows hpc server)
Парень молодец, мое ему уважение искреннее.
Просто идеологически ведь все вычисления с клиента должны быть отправлены на сервер, а клиентская часть -это отображение ведь, не требующее больших ресурсов. А тут получается что отображение уже стало на столько тяжелым что требуется какая то аппаратная поддержка(видеокарта с поддержкой cuda). Как то это все противоречиво. Хотя еще раз повторю-очень интересно, и классно что кто то это реализовал.
из серии-" У сапожника всегда свои сапоги дырявые"
Спасибо за статью. она развеяла некоторые мифы об Opencl в моей голове.
Хочу скореее увидеть IDE с поддержкой разработки Opencl.(у Cuda появилась же поддержка в visual studio2008, пора и opencl делать поддержку где нибудь)
А то блокнот и компиляция из командной строки это слишком по спартански было бы.
«Оптимизировать да, прийдется, если есть необходимость работы на конкретном железе, но в этом случае OpenCL может обеспечивать возможность этой оптимизации в рамках себя. „

вот эту фразу всегда надо выделять тогда. если не делать акцент, то наверное не один я не до конца поймут смысл технологии.

Про математические библиотеки, я слышал, на той же летней школе в мфти, что mkl писали очень многое наши из (помоему даже из института системного программирования ран). так что узнать на чем писали я думаю можно у них при желании.

Желаю скорейшего написания статьи.
если Вы напишете эти 2 статьи я лично буду очень благодарен вам. так как про opencl действительно хочется знать побольше, а сейчас знание и понимание не полное.

Что кто то оптимизировать будет кроме меня я и не надеюсь. Я хотел сказать что оптимизировать программу под каждую платформу придется отдельно. А это значит разную производительность.
Как выглядит cuda я знаю. Чуть чуть даже писал. Но то что язык СИ подобный еще ничего не говорит! Есть особенность архитектуры. К примеру есть разница в уровнях памяти систем на которых считаем. Есть разница в скорости доступа к этой памяти. На школе мфти летом нам показывали как сильно может меняться скорость работы программы от размещения данных в памяти.работали мы как раз с cuda.Когда у нас все было в общей памяти видеокарты(dram) это было одно время выполнения, когда было размещено в shared памяти это на порядок быстрее было. Есть еще много примеров архитектурных особенностей.
И тот факт, что это все СИ подобно на архитектуру ну не как не влияет. А сможет ли opencl оптимизировать программу лучше программиста причем для всех возможных платформ...? Я конечно верю в, то что закодить можно все, но не до такой же степени.
cuda- частный пример. можно ли написать что бы на всех архитектурах работал opencl так же быстро как и на заточенной под архитектуру технология!?
если честно мне кажется, что путь будет такой же как у языков высокого уровня в сравнении с ассемблером. скорость написания выше, но использовать на всю мощь архитектурные особенности тяжело.
В летней школе мфти 2009 по высокопроизводительным вычислениям была секция по cuda.
Преподаватель упомянул про opencl, что она есть и все. Когда же у него спросили про opencl он ответит примерно следующее- для пользовательских приложений это хороший выход, который сможет сэкономить время разработки программ. но для Серьезных вычислений научных, всегда будет нужна сверхвысокая производительность. по этому так как opencl должна поднять на более высокий уровень абстракции чем специфичные технологии заточенные под архитектуру, то opencl не станет равномощной узко заточенным системам таким как cuda.
Хотя для не супер компьютеров это вполне подойдет

Information

Rating
Does not participate
Registered
Activity