Pull to refresh
100
0
Send message
И давно вам встречались задачи с 20 признаками и линейными паттерннами? Я лет пять занимаюсь ML для разных стартапов — и все задачи были 1) большой размерности 2) с высоко нелинейными паттернами 3) высоким шумом / избыточностью.
По мне, зря человека заминусили. Я не помню чтоб на nips/icml встречал доклады от российских вузов. Правда, русских имен много.
На счет Feature Learning / Deep learning это все очень тесно связано.

За последние два года я работал только с deep learning алгоритмами, а классику использовал только для сравнения.

В широком смысле, текст, изображения и видео — это 90% современного машинного обучения.

Вот список приложений в более узком смысле:
— автоматический перевод
— распознавание речи
— определения жанра музыки
— распознование рукописных символов (именно, handwriting)
— моделирование длинных последовательностей: языковые модели, трейдинг
— автоматическое аннотирование картинок
— IR: поиск картинок, документов
— рекоммендательные системы
— пара приложений от deepmind, которую гугл купил:
— ИИ для простых видеоигр
— neural turing machine: инференс простых алгоритмов, вроде сортировки; но это пока очень экспериментальная штука

Было бы интересно. С word2vec я работал немного.
Ну всего понемногу: текст, картинки, видео. Текст больше интересен.
Реквестирую статью по feature learning.
Вы не поверите, насколько сильно одно связано с другим.
О, заминусили :)

Я имел ввиду что вы говорите довольно «роботизированным» голосом, с четкими паузами и разделениями слов. Более того, короткими командами. Это не очень практично в обычной жизни, где человек говорит бегло.
«Телефончик, слушай, отправь смсочку Лене и скажи задержусь на пять минут.»

Голосовое управление станет обыденностью если дивайс сможет распозновать подобные вещи, сказанные бегло и без напряжения.
Да, я бы сделал иначе. Гугл, фейсбук разрешает публиковаться своим ученым. Более того, это норма. Если мне потребуется, несмотря на DNA я тоже могу договорится с боссом о публикации. Тем более, работа Кука не ноу-хау для бизнеса. Это — теоретический результат.
Да, вы правы. Я напутал. Слил две истории вместе.

Но суть от этого не меняется. Кук доказал правило 110. Стивен через суд заблокировал публикацию.
Да, там был NDA. Но не публиковать важные работы — это странно. Ученый то должен понимать, тем более математик. Вольфрам же подал в суд на собственного работника, чтобы задержать публикацию и перенести ее в свою книгу.
Wikipedia — Rule 110

Around 2000, Matthew Cook published a proof that Rule 110 is Turing complete, i.e., capable of universal computation, which Stephen Wolfram had conjectured in 1985. Cook presented his proof at the Santa Fe Institute conference CA98 before the publishing of Wolfram's book, A New Kind of Science. This resulted in a legal affair based on a non-disclosure agreement with Wolfram Research. Wolfram Research blocked publication of Cook's proof for 2 years.[1]
Один математик доказал полноту по Тьюрингу правила 110, по конкурсу от Вольфрама. Опубликовал результат, как это принято. Стивен его засудил, и заблокировал публикацию на два года. Это, по вашему, нормально?
Кстати о птичках, Байесовскую непараметрику кто-нибудь на практике использовал?
Почему вы не ставите вопрос «почему С не утонул?». Язык и древнее, и топорней. И, судя по графикам, популярней.
Подожду :).

Сергей, отвлеченный вопрос. А откуда такая любов к графическим (графовым) вероятностным моделям? С чисто инженерной точки зрения — это головная боль. Не так много пакетов, которые разботают «из коробки». Простые вещи типа sum-product реализовать можно и самому, но когда начинается что-то более сложное… Вы в surfingbird пишете с нуля, или все же что-то используете?
После долгого затишья… Рад что вы вернулись. Сильный цикл статей. Реквистирую непараметрические байесовские методы.
Откуда столько эмоций? Речь идет о т.н. 'adversarial noise'. Т.е. мы сознательно генерируем шум такого рода, что заставляет классификатор ошибаться. Это применимо, вообще, к любым классификаторам. В статье показано как это делать с нейронной сетью.

На счет автомобилей и т.п. — привожу пример обсуждения на форуме (с участием автора статьи):

Minh Lê 2 июня 2014 г.:

Regarding driverless cars: this finding should not be a problem to them because they examine many samples per second and it is unlikely that «adversarial examples» occur in majority.

Christian Szegedy 2 июня 2014 г.

Agreeing with Minh.
Два вопроса — сильно ли это отличается от онлай курсов Edx или Coursera?
Второй — куда дальше, яндекс?
А только по камерам кто-нибудь летал?
Пробовал. VisualStudio, Builder, Eclipse, IDEA, Comodo и много других по-меньше. Доктор, что со мной?

Information

Rating
Does not participate
Registered
Activity