Да, такая штука по умолчанию у меня в HTC Desire. Честно сказать — Swype ее кушает на завтрак по скорости и точности. Так что Гуглу Свайп следовало бы покупать.
Не, я конечно в восторге — роботы и все такое, но они в такие здоровые дырки и так медленно паркуются, что честно говоря, выгоды для любого, кто хотя бы год за рулем отсидел — не вижу.
Споры относительно семантики (определения что понимать под словом) являются одними из тех споров, в которых не рождается истина. И в них никто ничего не выигрывает.
Собственно я о том, что гиганты наверняка уже используют подобные системы in-house, так что им покупать это нафиг не надо, у них своих систем слежения хватает.
Автор, а чем Вас не устроили распределенные базы данных ключ-значение (thepiratebay.org-xxx.xxx.xxx.xx) тот же Византийский Паксос (Byzantine Paxos), например, устойчив к лжи и подлогу внутри сети, отказам части сети и т.п…
Проблема тут будет в том, что сквоттеры уже через час будут владеть всеми доменами, которые только хоть как-то осмысленны. Сейчас их останавливает только то, что за домены надо платить хоть сколько-то. А в такой сети какой ограниченный ресурс будет использоваться для сдерживания?
100 компьютеров позволят Вам обрабатывать примерно 170 миллионов страниц в месяц по самой консервативной оценке. Куда Вам столько? Одного VPS для Ваших целей с ушами.
У меня вон проект есть — сканирует 20000 ресурсов ежедневно (в сумме 500 000 страниц в день — ограничение искусственное, чтобы не выходить за 200 ГБ траффика в месяц, а процессор позволяет где-то в 20 раз больше делать) — ничего на одном VPS за $20 живет.
Скажите сколько Вам нужно будет посетителей привлечь, чтобы проанализировать 15 млн страниц за месяц?
«Посетители не стоят ничего.»
Кстати не продадите миллионов десять посетителей за «ничего»?
2. Верно — надо бы, сделаю.
print 1. * len(critic_1 & critic_2) / len(critic_1 | critic_2)
там "|" должно быть в знаменателе
-c
" в знаменателе там явно лишнее, да и делается подобный расчет куда проще с помощьюset
ов."
1.
" там для того, чтобы вfloat
расчет шел.Проблема тут будет в том, что сквоттеры уже через час будут владеть всеми доменами, которые только хоть как-то осмысленны. Сейчас их останавливает только то, что за домены надо платить хоть сколько-то. А в такой сети какой ограниченный ресурс будет использоваться для сдерживания?
100 компьютеров позволят Вам обрабатывать примерно 170 миллионов страниц в месяц по самой консервативной оценке. Куда Вам столько? Одного VPS для Ваших целей с ушами.
У меня вон проект есть — сканирует 20000 ресурсов ежедневно (в сумме 500 000 страниц в день — ограничение искусственное, чтобы не выходить за 200 ГБ траффика в месяц, а процессор позволяет где-то в 20 раз больше делать) — ничего на одном VPS за $20 живет.
Скажите сколько Вам нужно будет посетителей привлечь, чтобы проанализировать 15 млн страниц за месяц?
«Посетители не стоят ничего.»
Кстати не продадите миллионов десять посетителей за «ничего»?
И главный вопрос, который меня мучает — а где это все применяется-то вообще и как связано с тематикой Хабра?
Насколько я помню вейвлеты в SURF применяются для анализа изображения, а тут речь про сигналы, частоты…
Кажется они еще в распознавании лиц могут применяться, но вот глядя на вышесказанное как-то связать не могу это все.