Пользователь
0,0
рейтинг
7 октября 2009 в 20:53

Разработка → Видеокарты NVIDIA смогут ускорять работу антивирусов

Ресурс Fudzilla, ссылаясь на слова Главного управляющего направлением CUDA компании NVIDIA Сэнфорда Рассела (Sanford Russell), сообщает, что в скором времени ресурсы графического процессора могут использоваться для сканирования компьютера на наличие вирусов.
Антивирусные программы могут обеспечивать параллельные вычисления в режиме сканирования, и от этого скорость их работы может значительно возрасти. Применение технологии CUDA в таких параллельных вычислениях и использование ресурсов графических процессоров как раз и позволит добиться прироста производительности антивирусов. В настоящее время графические процессоры уже применяются при осуществлении таких общих вычислений как редактирование фотографий, кодирование видео и просмотр телевидения.
Отмечается, что если NVIDIA сможет существенно повысить производительность антивирусов, а такое ПО установлено почти на любом компьютере под управлением операционных систем Windows, то тем самым компания сможет значительно расширить количество своих клиентов. Таким образом, можно будет продавать видеокарты не только для требовательных игровых приложений, но и широкого круга задач общего назначения.
Сейчас компанией NVIDIA совместно с некоторыми партнерами ведутся активные работы по увеличению количества задач, выполнение которых можно переложить с центрального процессора на видеочип, тем самым существенно повысив производительность системы. В настоящее время даже видеокарты начального уровня и интегрированные решения обладают поддержкой CUDA (речь идет о новых продуктах) и могут принимать участие в параллельных вычислениях.

via itc.ua
Руслан @ruzhovt
карма
0,0
рейтинг 0,0
Пользователь
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое Разработка

Комментарии (87)

  • +18
    Как же я жду новости «Видеокарты NVIDIA смогут варить кофе».
    • +8
      Выйдет Larrabee — можно будет и яичницу пожарить :)

      en.wikipedia.org/wiki/Larrabee_%28GPU%29
    • НЛО прилетело и опубликовало эту надпись здесь
      • 0
        Зависит от задачи. Может быть и наоборот.
        • НЛО прилетело и опубликовало эту надпись здесь
  • 0
    А я все не могу понять — зачем тогда компьютеру CPU? Да и вообще, уже давно обещали обьеденить в компьютере процессор и видеокарту. Пока ничего не слышал.
    • +3
      Архитектуры разные, да и чем плохо использование простаивающих ресурсов?
      Ведь это как минимум разгружает процессор для задач, которые пока не работают через CUDA.
      • 0
        Ну просто почему процессор настолько проигрывает видеокарте? Если проблема только в архитектуре, то это вопрос времени.
        • +3
          Ну у GPU больше ядер и другое управлению памятью, на сколько я понимаю. Отлично подходит для многопоточных вычислений.
        • +3
          CPU и GPU созданы для решения разных классов задач. Соответственно, один хорош на одних, другой — на других.

          Ваш К.О.
        • НЛО прилетело и опубликовало эту надпись здесь
        • 0
          Видеокарта позволяет запустить много мелких вычислений паралельно, а процессор — мало, но крупных
    • 0
      Чаще читайте топики «Неделя с Intel», будете больше знать на эту тему.
      По поводу процессора и видеокарты вам сюда.
      Там даже есть интересная аналогия с начальником, смотрите пост Виктории. :)
    • –5
      Только недавно разделили, а вам обратно надо? может вообще перейдем на перфо-карты?
    • НЛО прилетело и опубликовало эту надпись здесь
      • –1
        Кэп, это все уже где-то было!
      • 0
        В PS3 стоят 8-ядерные Cell'ы так что там 1 управляющее и 7 числодробилок
    • НЛО прилетело и опубликовало эту надпись здесь
    • +1
      Внесу и свою лепту.
      Графические процесоры умеют только считать.
      Считать быстро, в сотни потоков, но крайне тупо.

      Процессоры общего назначения наоборот считать особо не умеют.
      Они умеют думать — заметим что блок предсказаний ветвлений — половина проца занимает :)
      А разные тама MMX\SSE и другие QPI — это так, дополнительные фичи
      • 0
        Тогда согласен — надо организовать такую систему, где CPU решает что и как, а GPU считает
        • 0
          не поверите — но уже сейчас это работает ИМЕННО ТАК!
          • 0
            Так я и говорю — надо организовать такую систему — так организовали :)
    • НЛО прилетело и опубликовало эту надпись здесь
  • +4
    Ну наконец-то уже видеокарты смогут ускорять работу антивирусов!
  • +18
    По всей видимости, видеокарты смогут ускорять работу и вирусов тоже :-)
    • +2
      Недавно статью читал из "][акер«а об использовании ресурсов видеокарты для увеличения скорости брутфорса. Так что антивирусам станет хорошо, а хакерам ещё лучше )
  • +22
    Т.е. теперь Касперский будет жрать не только процессор, но ещё и видеподсистему на колени ставить?
    • НЛО прилетело и опубликовало эту надпись здесь
    • +9
      Холодными зимами Касперский будет замечательно отапливать помещение хорошо прогретой видеокартой. Стало холодно — подбрасывай свежих папок с документами на проверку антивирусу. 8)

      Видеокарта вместо камина и растопка цифровыми документами — концептуальненько.
      Правда к орущим кулерам вместо треска дров, все-таки придется привыкать :\
      • +2
        Сама идея камина с системой охлаждения, чтобы камин не сломался — блеск.
  • 0
    Я бы написал это, и для nVidia, и для AMD, и для OpenCL. Кто бы только попросил :-)
  • 0
    Нвидиа всеми силами пытается показать как она крутит педали прогресса как всегда.
  • +2
    видео карты пора уже называть: невье***** универсальный девайс
  • –1
    Круто, а у тех кто владеет видяхами от АМД эти приложения будут тормозить.
    • 0
      У ATI уже давно поддерживается работа приложений на процах на карте.
      Вспомним идущий по умолчанию с дровами к новым картам Folding@HOME.
      • 0
        Но нвидия продвигает свою Куду в качестве почти стандарта, а это несколько пугает. Врядли разрабы ресурсоемких приложений будут делать одновременно и на архитектуре нвидиа и амд.

        Т.к. предыдущая моя видеокарта стала для меня последней видеокартой от nvidia, меня этот вопрос несколько волнует.
        • 0
          Не знаю. Меня не особо. Я как-то живу не особо завися от антивирусов и прочей хрени, которая может работать на видеокарте.
          В винде я бываю ради кодинга под visual studio и сетевых игр.
          Поэтому со всем этим вполне справляется радеон.
          • 0
            Я линем, знаете ли, тоже пользуюсь ;) Только на «большом брате» дома стоит вин, иногда поиграться.

            Я думаю, оптимизиация вычислений посредством видеокарты возможно и под линем?
            • 0
              Возможна она где угодно. Был бы интерфейс.
              Мне, лично, пофиг, что там будет с nVidia, будут антивирусы поддерживать радеон или не будут. Не будут и хер с ними, ЦП жил, ЦП жив, ЦП будет жить.
        • 0
          есть общая OpenCL
  • 0
    Пойду напишу новый вирус под АМД :)
  • 0
    … и вирусов.
  • –5
    у меня нет ни вирусов, ни антивирусов, зачем мне это?
    • –4
      А вирусов у Вас нет, потому как антивирусов не установлено и, следовательно, вы не видите предупреждений о вирусах? Забавненько.
      • 0
        Откуда вы знаете, может, он md5 всех бинарников регулярно сверяет.
        • 0
          md5 — это далеко не лучший способ следить за злонамеренным изменением файлов. Как проверка случайных искажений — годится. Но если я захочу специально изменить или добавить информацию в файле, то я могу в дополнение к интересующим меня данным изменить какие либо несущественные данные в файле (в PE, например, и предостаточно) так, что контрольная сумма останется прежней.
          • 0
            Во-первых, вы не сможете это сделать с произвольным файлом. А во-вторых, кроме md5 есть ещё sha.
      • НЛО прилетело и опубликовало эту надпись здесь
      • +1
        ага, мне один знакомый говорил, что касперский говно, потому что орет постоянно! то есть не он криворукий, нахватался вирусни, а касперский мудак, потому что находит.
        в общем логика not detected!
      • –1
  • 0
    Осталось дождаться лишь поддержки CUDA на уровне операционной системы… )
    • 0
      В смысле «на уровне операционной системы»? Чтобы CUDA-приложения работали нужен свежий видеодрайвер от nvidia и парочка dll'ек. Ну и nvidia-карта не хуже чем GF 8xxx конечно.
      • 0
        Чтоб операционная система, нативно, использовала GPU для работы стандартных сервисов и приложений как дополнительный процессор.
        • +2
          Лучше-б сначала nV и ATI договорились, и сделали общими силами один язык, который уже сам будет решать использовать CUDA или что-то там от ATI и при этом, если две видео карточки то еще и распараллеливание на языках разных.

          А если сервисы будут юзать CUDA — ох, гиблое дело — для начала вспомните что в видео карточке память как сбоит при перегреве? А теперь у вас при просчете мощности ядерного взрыва, бац, и увеличилась мощность раз в 1000…
          • 0
            Лучше-б сначала nV и ATI договорились, и сделали общими силами один язык, который уже сам будет решать использовать CUDA или что-то там от ATI и при этом, если две видео карточки то еще и распараллеливание на языках разных.
            ВНЕЗАПНО!!!1

            OpenCL
  • +1
    ну вот, моя Linux машина опять не у дел :( Вирусов нет, и не предвидеться :(
    • 0
      Вопрос времени и популярности ОС.
      • 0
        Совсем нет. Скорость обновления ПО тоже играет роль. Даже ядро Linux эволюционирует по сравнению с Windows очень быстро — вирусам сложно закрепляться в экосистеме.
  • 0
    Ну что сказать, пока выглядит как реклама. Рекламный повод интересный — тут спору нет, но хочется первых частных результатов и т.п.
  • 0
    Интересно, на маках пробовали применять «чудеса» карт NVIDIA?
    • 0
      На маках это реализовано в Snow Leopard'е, причем намного интересней чем здесь описано. Я вообще не понимаю причем здесь конкретно антивирусы? А остальные программы чем хуже? В OS X 10.6 реализована так называемая технология OpenCL, которая предоставляет любым (!) разработчикам возможность использования в графического процессора для различных вычислительных задач.
  • 0
    Мда, а через N-ть лет — новые процессоры AMD(Intel) смогут ускорять вычисления.
  • +2
    А будет ли в скором времени на чем ускорять?
    Вот сегодня iXBT опубликовал новость (сорри за неактивную ссылку, к сожалению, пока могу дать только в таком виде):
    www.ixbt.com/news/hard/index.shtml?12/48/45
    • 0
      Странно, в прошлый раз попытка дать ссылку в комментарии привела к ее неактивности.
    • 0
      фак мой моск. Не могу в это поверить. Надо дождаться официального аноноса, это одна из печальных новостей за последнее время. Даже по поводу продажи Sun'а IBM'у мне кажется не так переживал.
      • 0
        расслабьтесь — это фэйк ;).
  • 0
    Надо будет занятся ускорением компилятора elisp для CUDA. Думаю эти две технологии будут достойны друг друга (%
  • 0
    Когда Nvidia начнет делать CPU?
    • 0
      Tegra?
  • 0
    Эээ… nVIDIA что, поставила себе цель в скором времени собрать компьютер только из одной видеокарточки?
  • 0
    Воспринимать как божественное откровение от NVIDIA? Раз уж есть CUDA, то использовать ее можно будет для любой программы, которую запрограммируют под использование GPU.
  • +1
    скоро будут новости «GPU сможет ускорять офисные приложения», «GPU cможет ускорять файловые менеджеры», «GPU сможет ускорять IDE»… пятилетки блин, давайте конкретные решения обсуждать
    • НЛО прилетело и опубликовало эту надпись здесь
      • 0
        «Только представьте, через 50 лет, тут завод, там фабрика» — сплошные лозунги, реальные приложения где? читал статейку что плейер с поддержкой cuda (который через сайт nvidia можно получить) пофакту быстрее только на low-end процессорах
        • НЛО прилетело и опубликовало эту надпись здесь
    • 0
      А GPU и так ускоряет офисные приложения. Там же дофига векторной графики используется — шрифты, диаграммы, всякая прочая хрень. Так что…
  • 0
    Было бы неплохо. Вообще Nvidia уже очень далеко и сильно продвинула область CPGPU, сотни приложений, разработок, задействованы десятки тысяч людей на исследование и разработку программной базы, а сколько тем для диссертаций… Респект.
  • 0
    графические карты также используются для просчёта VST и других архитектур музыкальных плагинов.
  • 0
    А что делать геймерам, ведь такими темпами видеокарта скоро не сможет выполнять свои прямые обязанности.
    • 0
      А кто вас заставляет одновременно играть, кодировать видео и проверять компьютер на вирусы? :)

      В том то и суть, что большую часть времени простаивают огромные вычислительные ресурсы, и процессорные в том числе ;)
  • +1
    А вот когда вирусы начнут пользоваться GPU для своих черных дел…
  • 0
    Странно, что никто ещё не оставил тут ссылку на видеоролик с рисованием Мона-лизы:
    www.youtube.com/watch?v=fKK933KK6Gg
    Там показано, что если задача поддерживает распараллеливание, то на GPU её можно реализовать гораздо быстрее, чем на CPU. Ну «там показано» — это конечно слишком громко сказано. Скорее просто эффектный рекламный трюк с привлечением тех самых разрушителей мифов на радость публике.
  • 0
    А разве при проверке жесткого диска на вирусы узким местом является CPU?
    • НЛО прилетело и опубликовало эту надпись здесь
      • 0
        Так, для теста, запустил clamscan -r /usr/lib — отъедает, в среднем, 60% процессорного времени на одном ядре Athlon II 250. Это нельзя сказать, что совсем незаметная нагрузка.
  • 0
    Это что ж скоро в требованиях антивирусов будут еще и видеокарты…
  • 0
    Шутки-шутками, но куда-то не туда направлены усилия. Надо не костыли апгрейдить, а болезнь лечить. А вообще, я абсолютно не против использования ресурсов GPU для ускорения чего-нибудь, Windows, например (:

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.