Pull to refresh

Comments 43

Интересный инструмент.
Почему вы решили показывать заголовок блока в результатах поиска, а не заголовок страницы?
В моём случае это приводит к множеству одинаковых заголовков с разным текстом.
Сейчас Suggest.io поддерживает Open Graph protocol (http://ogp.me/), поэтому можно задать заголовок на страницах с помощью мета тега <meta property="og:title" content="Заголовок страницы" />.

После запуска мы сосредоточимся на улучшении качества анализа страниц сайтов.
Установил на живой прожект, посмотрим результаты. На первый взгляд вроде бы мило.
Замечено:
1. у вас нет аккаунтов, соответственно статистику использования сервиса мне не видать
2. Напрягает, что результат открывается в новом окне. Это настраивается?
Снёс. После вставки вашего JS перестали работать JS мои собственные и стандартные для CMS.
Установил себе тоже на живой проект, но есть проблема — у нас есть HTTP и HTTPS версии сайта — можно сделать так, чтобы оно не перекидывало на HTTP? Ещё одна проблема — наш сайт существует в трёх языках и переключение происходит по url: /en/..., /ru/..., /uk/… — так вот при поиске чего-то такого, что есть на страницах на разных языках — выводятся все варинаты и они обычно являются равными по релевантности и стоят рядом. Можно ли это как-то перебороть?
Первую проблему устранили — если страница открыта по https, то найденные страницы тоже откроются по https.

С языками постараемся в ближайшее время предложить решение.
К языкам же: будет классно, если «начните вводить запрос...» и иже с ним будет не только на русском.
Добавил свой сайт, подождал две минутки, получил «Internal server error (HTTP 500)» в правом окне (индексации).
К сожалению, были технические проблемы. Сейчас все работает!
Хм, понятно. Для сайтов с генерацией страниц поиск не подходит, жаль.
С ajax-ссылками типа #!? Или что имеется в виду под генерацией страниц?
Может имелась ввиду генерация на стороне клиента?
Если подразумевается ajax-сайт, то индексация suggest.io работает по этой спеке гугла путем конверсии ajax-ссылок типа http://host.ru/rsc#!a=b в http://host.ru/rsc?_escaped_fragment_=a=b.

Обычно на таких сайтах главная страница тоже аякснутая (т.е. неиндексируемая «в лоб»), поэтому админу нужно ещё sitemap.xml для таких ссылок создать и прописать его в robots.txt. В общем, всё тоже самое, что и для гугла.
У вас имеются собственные поисковые технологии или вы адаптируете существующие решения?
О! Первые скриншоты с Яндекс.Браузером. sweeeet :-)
Чем оно лучше Yandex Site Search?
Увы, испытываем технические проблемы в связи с большой нагрузкой. Работаем над устранением неисправностей и скоро будем в строю!
Есть ли лимиты на количество страниц и нужно ли строить после каждого обновления сайта индекс снова?
Если поставить поиск на сайт, то будет работать мониторинг сайта на предмет новых страниц.
Лимита на количество страниц пока нет.
UFO just landed and posted this here
Хотелось бы на сайте увидеть ссылки на демо и на другие сайты.
За счет чего будет жить проект?
1. Поставил граббер, сначала все ок. теперь постоянно «HTTP error: <<»HTTP request timeout">>."
2. форму поиска не подцепил
3. menspro.ru
Получаю странную ошибку при парсинге своего сайта
>>>
Character encoding 'cp-1251' unsupported.
С 'cp-*' кодировками вроде исправили проблему.
Попробовал — так и не работает
Вы не могли бы прислать в личку адрес сайта?
Поиск замечательный, НО! Лично мне он был бы интересен с настройками внешнего вида и, желательно, с настройками отображения и фильтрации результатов.
Спасибо!

Мы сейчас работаем над инструментами для настройки поиска ( в т.ч. и внешнего вида вижета ).
Были бы признательны если бы вы написали о том, что именно хотелось бы настраивать.
В первую очередь, цветовая гамма виджета.
паук теперь будет постоянно сканить сайт (как отказаться теперь)? или это одноразовая операция?
не помешало бы добавить аккаунты с возможностью управлять работой индексатора (установить время, задержки, вручную добавить/удалить страницы)
> установить время, задержки

Можно через robots.txt Crawl-Delay для User-Agent: suggest.io/crawler или User-agent: *

В robots.txt так же поддерживаются стандартные директивы и яндексовский Clean-Param.
У кого публичный проект с этим чудом, дайте поглядеть.
Интересно, насколько он более «живой» по сравнению с barzer.net
Помоему он слег, зайти на сайт не получается
Сервис работает в штатном режиме, проблем не наблюдаем.
Да действительно, теперь работает. А 5 минут назад пробовал в течении 15 минут зайти — не получалось.
Sign up to leave a comment.