Новых задач, увы, я назвать не смогу, сказал для красного словца. Но, например, насколько мне известно, в распознавании образов сейчас приоритеты отнюдь не у нейросетей. Упомянутые выше деревья принятия решений пользуются ощутимо большей популярностью.
Я не утверждаю, что они совсем забыты. Безусловно, работы ведуться. Но за 5-6 лет я как-то не помню, что бы нейросети были успешно применены при решении новых(!) задач. В быту, как вы выразились, они все так же решают крайне узкий круг задач. Именно это я спрашивал выше.)
Не подскажете, почему «экспансия» нейросетей остановилась? всегда интересовал этот вопрос, но ответ толком не нашел (да и, откровенно говоря, особо и не искал).
Я бы Вам рекомендовал ознакомиться с лекциями Стэнфордского университета:
ИИ — www.ai-class.com/home/
Машинное обучение — www.ml-class.org/course/class/index
Получите отличную базу и подтянете необходимую математику (благо, рассказывают ОЧЕНЬ доступно, особенно машинное обучение). Согласен с оратором выше — начинание хорошее, но пост сырой.
Как на практике решается проблема нелинейности я также сказать не смогу, но помимо смены ядра есть еще один метод. Было доказано, что любую линейно не разделимую задачу можно свести к линейной путем перехода в другое пространство. Например, из декартовых координат можно перейти к полярным. Впрочем, это можно «сыметировать» использовав другое ядро.
Да, безусловно, сравнивать мы можем что угодно и как угодно. Простые тесты позволят немного нарастить быстродействие (но не в ущерб точности! Важно понимать, что это не панацея).
О спектрах как-то не подумал, а ведь и правда, это весьма любопытная идея. Ведь пробовал когда-то. :)
Как я уже упоминал, действительно, в силу небольшой размерности признакового постранства, необходима действительно большая обучающая выборка. Для учета поворотов, как вариант, можно написать генератор преобразований, который из 1 patch'a будет делать несколько, добавляя к ним шумы/повороты/и чего душа пожелает. Это, правда, все равно «костыль». ) А вот над Вашим предложением о независимом от поворотов методе надо подумать, это интересно.
В начале где-то написано, что можно и случайно. На деле удобнее использовать дескрипторы SURF, SIFT и тому подобные — все таки «устойчивые» области выбираются, результат надежнее. При классификации аналогично.
ИИ — www.ai-class.com/home/
Машинное обучение — www.ml-class.org/course/class/index
Получите отличную базу и подтянете необходимую математику (благо, рассказывают ОЧЕНЬ доступно, особенно машинное обучение). Согласен с оратором выше — начинание хорошее, но пост сырой.
О спектрах как-то не подумал, а ведь и правда, это весьма любопытная идея. Ведь пробовал когда-то. :)