И давно вам встречались задачи с 20 признаками и линейными паттерннами? Я лет пять занимаюсь ML для разных стартапов — и все задачи были 1) большой размерности 2) с высоко нелинейными паттернами 3) высоким шумом / избыточностью.
По мне, зря человека заминусили. Я не помню чтоб на nips/icml встречал доклады от российских вузов. Правда, русских имен много.
На счет Feature Learning / Deep learning это все очень тесно связано.
За последние два года я работал только с deep learning алгоритмами, а классику использовал только для сравнения.
В широком смысле, текст, изображения и видео — это 90% современного машинного обучения.
Вот список приложений в более узком смысле:
— автоматический перевод
— распознавание речи
— определения жанра музыки
— распознование рукописных символов (именно, handwriting)
— моделирование длинных последовательностей: языковые модели, трейдинг
— автоматическое аннотирование картинок
— IR: поиск картинок, документов
— рекоммендательные системы
— пара приложений от deepmind, которую гугл купил:
— ИИ для простых видеоигр
— neural turing machine: инференс простых алгоритмов, вроде сортировки; но это пока очень экспериментальная штука
Я имел ввиду что вы говорите довольно «роботизированным» голосом, с четкими паузами и разделениями слов. Более того, короткими командами. Это не очень практично в обычной жизни, где человек говорит бегло.
Да, я бы сделал иначе. Гугл, фейсбук разрешает публиковаться своим ученым. Более того, это норма. Если мне потребуется, несмотря на DNA я тоже могу договорится с боссом о публикации. Тем более, работа Кука не ноу-хау для бизнеса. Это — теоретический результат.
Но суть от этого не меняется. Кук доказал правило 110. Стивен через суд заблокировал публикацию.
Да, там был NDA. Но не публиковать важные работы — это странно. Ученый то должен понимать, тем более математик. Вольфрам же подал в суд на собственного работника, чтобы задержать публикацию и перенести ее в свою книгу.
Around 2000, Matthew Cook published a proof that Rule 110 is Turing complete, i.e., capable of universal computation, which Stephen Wolfram had conjectured in 1985. Cook presented his proof at the Santa Fe Institute conference CA98 before the publishing of Wolfram's book, A New Kind of Science. This resulted in a legal affair based on a non-disclosure agreement with Wolfram Research. Wolfram Research blocked publication of Cook's proof for 2 years.[1]
Один математик доказал полноту по Тьюрингу правила 110, по конкурсу от Вольфрама. Опубликовал результат, как это принято. Стивен его засудил, и заблокировал публикацию на два года. Это, по вашему, нормально?
Сергей, отвлеченный вопрос. А откуда такая любов к графическим (графовым) вероятностным моделям? С чисто инженерной точки зрения — это головная боль. Не так много пакетов, которые разботают «из коробки». Простые вещи типа sum-product реализовать можно и самому, но когда начинается что-то более сложное… Вы в surfingbird пишете с нуля, или все же что-то используете?
Откуда столько эмоций? Речь идет о т.н. 'adversarial noise'. Т.е. мы сознательно генерируем шум такого рода, что заставляет классификатор ошибаться. Это применимо, вообще, к любым классификаторам. В статье показано как это делать с нейронной сетью.
На счет автомобилей и т.п. — привожу пример обсуждения на форуме (с участием автора статьи):
Minh Lê 2 июня 2014 г.:
Regarding driverless cars: this finding should not be a problem to them because they examine many samples per second and it is unlikely that «adversarial examples» occur in majority.
На счет Feature Learning / Deep learning это все очень тесно связано.
За последние два года я работал только с deep learning алгоритмами, а классику использовал только для сравнения.
В широком смысле, текст, изображения и видео — это 90% современного машинного обучения.
Вот список приложений в более узком смысле:
— автоматический перевод
— распознавание речи
— определения жанра музыки
— распознование рукописных символов (именно, handwriting)
— моделирование длинных последовательностей: языковые модели, трейдинг
— автоматическое аннотирование картинок
— IR: поиск картинок, документов
— рекоммендательные системы
— пара приложений от deepmind, которую гугл купил:
— ИИ для простых видеоигр
— neural turing machine: инференс простых алгоритмов, вроде сортировки; но это пока очень экспериментальная штука
Я имел ввиду что вы говорите довольно «роботизированным» голосом, с четкими паузами и разделениями слов. Более того, короткими командами. Это не очень практично в обычной жизни, где человек говорит бегло.
Голосовое управление станет обыденностью если дивайс сможет распозновать подобные вещи, сказанные бегло и без напряжения.
Но суть от этого не меняется. Кук доказал правило 110. Стивен через суд заблокировал публикацию.
Да, там был NDA. Но не публиковать важные работы — это странно. Ученый то должен понимать, тем более математик. Вольфрам же подал в суд на собственного работника, чтобы задержать публикацию и перенести ее в свою книгу.
Around 2000, Matthew Cook published a proof that Rule 110 is Turing complete, i.e., capable of universal computation, which Stephen Wolfram had conjectured in 1985. Cook presented his proof at the Santa Fe Institute conference CA98 before the publishing of Wolfram's book, A New Kind of Science. This resulted in a legal affair based on a non-disclosure agreement with Wolfram Research. Wolfram Research blocked publication of Cook's proof for 2 years.[1]
Сергей, отвлеченный вопрос. А откуда такая любов к графическим (графовым) вероятностным моделям? С чисто инженерной точки зрения — это головная боль. Не так много пакетов, которые разботают «из коробки». Простые вещи типа sum-product реализовать можно и самому, но когда начинается что-то более сложное… Вы в surfingbird пишете с нуля, или все же что-то используете?
На счет автомобилей и т.п. — привожу пример обсуждения на форуме (с участием автора статьи):
Второй — куда дальше, яндекс?