Pull to refresh
36
0
Сергей @CaptainTrunky

Научный сотрудник

Send message
Спасибо за хорошее дело. Буду признателен за Спайдера. Если нет — то и Вортекс пригодится.
Вспоминается Пратчетт с его сундуком.)
А я и не говорю, что их не применяют. Я утверждаю, что они не столь популярны, как деревья или тот же SVM. Как раз по обозначенным вами причинам.)
Новых задач, увы, я назвать не смогу, сказал для красного словца. Но, например, насколько мне известно, в распознавании образов сейчас приоритеты отнюдь не у нейросетей. Упомянутые выше деревья принятия решений пользуются ощутимо большей популярностью.
Я не утверждаю, что они совсем забыты. Безусловно, работы ведуться. Но за 5-6 лет я как-то не помню, что бы нейросети были успешно применены при решении новых(!) задач. В быту, как вы выразились, они все так же решают крайне узкий круг задач. Именно это я спрашивал выше.)
Спасибо за ответ.
Не подскажете, почему «экспансия» нейросетей остановилась? всегда интересовал этот вопрос, но ответ толком не нашел (да и, откровенно говоря, особо и не искал).
Я бы Вам рекомендовал ознакомиться с лекциями Стэнфордского университета:
ИИ — www.ai-class.com/home/
Машинное обучение — www.ml-class.org/course/class/index
Получите отличную базу и подтянете необходимую математику (благо, рассказывают ОЧЕНЬ доступно, особенно машинное обучение). Согласен с оратором выше — начинание хорошее, но пост сырой.
Примерно тоже самое, да и по тем же источникам. Ничего, к выходным отыграюсь, есть пара идей.
Опередили на пару дней. ) Отличная статья.
Вот я тоже в этом неочень уверен. )
Как на практике решается проблема нелинейности я также сказать не смогу, но помимо смены ядра есть еще один метод. Было доказано, что любую линейно не разделимую задачу можно свести к линейной путем перехода в другое пространство. Например, из декартовых координат можно перейти к полярным. Впрочем, это можно «сыметировать» использовав другое ядро.
Да не, самому мне они не нужны. Просто возникает некоторый диссонанс — в заголовке заявлена практика, а в статье ее нет. )
На мой взгляд, было бы непохо выложить исходники для обозрения (github). Или подробнее рассказать о реализации, возможно с использованием псевдокода.
Да, безусловно, сравнивать мы можем что угодно и как угодно. Простые тесты позволят немного нарастить быстродействие (но не в ущерб точности! Важно понимать, что это не панацея).
О спектрах как-то не подумал, а ведь и правда, это весьма любопытная идея. Ведь пробовал когда-то. :)
Как я уже упоминал, действительно, в силу небольшой размерности признакового постранства, необходима действительно большая обучающая выборка. Для учета поворотов, как вариант, можно написать генератор преобразований, который из 1 patch'a будет делать несколько, добавляя к ним шумы/повороты/и чего душа пожелает. Это, правда, все равно «костыль». ) А вот над Вашим предложением о независимом от поворотов методе надо подумать, это интересно.
В начале где-то написано, что можно и случайно. На деле удобнее использовать дескрипторы SURF, SIFT и тому подобные — все таки «устойчивые» области выбираются, результат надежнее. При классификации аналогично.
Да не за что, на то он и Хабр, чтобы делиться.)
Все впереди, кто знает. )

Information

Rating
Does not participate
Location
Россия
Date of birth
Registered
Activity