Pull to refresh

Comments 10

Главная проблема кластеризации — определить количество кластеров. В этот вопрос вы не углублялись, возможно в следующих материалах могли бы затронуть. Спасибо за материал.
Безусловно, определение количества кластеров — это одна из важнейших проблем кластерного анализа. В более широком смысле — это проблема инициализации алгоритма: выбора оптимальных значений управляющих параметров, используемых оценочных функций, метрики, условий остановки и т.п. В этой статье я умышленно не затрагивал этот вопрос, поскольку он выходит далеко за пределы темы статьи. Если эти проблемы будут интересны — я обязательно раскрою их в отдельных материалах.

Для некоторых алгоритмов, перечисленных в статье, их авторы предлагают методы определения оптимальных значений параметров алгоритма, поэтому рекомендую ознакомиться с исходной литературой.
Да, или инициализации, или терминации, как в случае иерархической кластеризации например.

Всецело согласен, слишком большой вопрос для одного топика.
Лично меня интересует, почему в различных материалах об алгоритмах кластеризации (скажем диссертации), используется различная терминология для описания одного и того же.

Вы выделяете какие-либо школы или подходы, которые обуславливали бы этот факт? Или это просто вариации перевода.
Во-первых, есть обилие терминов, очень схожих по своему смыслу, которые в контексте алгоритмов кластеризации могут заменять друг друга. Например, термины «мера сходства» (similarity) и «дистанция» (distance) родственны, но термин «дистанция» всё-таки имеет геометрическое толкование, поэтому применение его в методах кластеризации категориальных или гетерогенных пространств данных не совсем корректно. Термин «мера сходства» здесь более универсален.

Во-вторых, это особенности перевода терминологии из зарубежных источников. Лично я встречал довольно мало российских научных работ по кластерному анализу, а большинство имеющихся основаны на зарубежных источниках и являются в какой-то мере их переводом. Может быть, в российском научном сообществе ещё не сформировалось какой-то устойчивой терминологии в области кластерного анализа, и поэтому каждый коллектив авторов использует свою. Я думаю, что если бы в России проводились национальные конференции по анализу данных типа ACM SIGKDD, то это было бы толчком к «стандартизации» терминов в области обработки данных.
Может начнем проводить?
Если нашлось бы достаточно желающих поучаствовать, и спикеров, то можно даже профинансировать эту идею.
Я только за, с удовольствием принял бы участие.

Однако для проведения таких мероприятий необходима заинтересованность и поддержка серьёзных и уважаемых научных учреждений. К сожалению, такого пока не наблюдается.
Пользуясь случаем, хочу передать привет В.В. Топоркову.
В английском тоже терминология «скачет»: одно и то же рассматривается в смежных областях науки («machine learning», «statistics», вычислительная математика), и люди часто придумывают/используют свои термины — например, features == inputs == predictors == independent variables (пример из The Elements of Statistical Learning, Hastie et al. )
> Алгоритм EM [11] основан на предположении, что исследуемое множество данных может быть смоделировано с помощью линейной комбинации многомерных нормальных распределений.
Не совсем так. EM используется тогда, когда максимум правдоподобия не может быть оценен напрямую из-за скрытых переменных. Тогда используется итеративное приближение матожидания целевой функции относительно этих переменных. То что вы написали — задача разделения смеси гауссиан, и EM ее решает. Но он более общий и может оценивать и другие виды распределений.

Статья хорошая, плюсую, хотя терминология непривычная.
С наступающим :)
Забыли Вы рассказать про дискриминантный и факторный анализ (PCA), оба из которых являются простыми способами классификации данных интервальных шкал.
Ну и еще есть целая группа методов для классификации категориальных наблюдений.
Sign up to leave a comment.

Articles