Pull to refresh
5
0
Kirill Popov @mulai

User

Send message
Трейс ходил, но очень медленно. Какой-то баг был временный, видимо. Сейчас все поднялось.
Как раз решил настроить OpenVPN на своем VPS на базе CentOS.
Сделал по инструкции.
Прописываю параметр push «redirect-gateway def1 bypass-dhcp»
Трафик до сервера ходит нормально, но вот дальше начинаются проблемы.
Трассировка на доменные имена на работает.
Трассировка на, к примеру, 8.8.8.8 занимает пару минут.
На машине ничего не открывается.
Клиент под Windows.
route PRINT на нем выдает
IPv4 таблица маршрута
===========================================================================
Активные маршруты:
Сетевой адрес Маска сети Адрес шлюза Интерфейс Метрика
0.0.0.0 0.0.0.0 192.168.1.1 192.168.1.2 25
0.0.0.0 128.0.0.0 10.18.0.5 10.18.0.6 30
10.18.0.0 255.255.255.0 10.18.0.5 10.18.0.6 30
10.18.0.4 255.255.255.252 On-link 10.18.0.6 286
10.18.0.6 255.255.255.255 On-link 10.18.0.6 286
10.18.0.7 255.255.255.255 On-link 10.18.0.6 286


Ранее с такой проблемой не сталкивался. В iptables все прописано корректно. Как понять в чем может быть проблема?
Весь таймаут тоже выжидать не обязательно. После получения события, можно сразу переходить к следующим пунктам. Но с событиями я пока сам до конца не разобрался. Если напишешь статью по работе в ESL, будет много благодарностей))
Точно сказать не могу, но думаю, что логика именно такая. Т.к. speak можно прервать (barge-in), то либо они должны запускаться параллельно, либо в FS очень уж быстро происходит запуск распознавания.

Подборка прекрасна. Спасибо!
Музыка, если прослушивать на самом сайте и через скачанный плейлист отличается. При этом на сайте играет хорошо, а при проигрывании плейлиста часто запинается, слушать невозможно. Проигрывал aimp-ом и vlc.
Это только у меня так?
Игорь, спасибо за хороший отзыв.
С авторами VXI я тоже общался, но все закончилось на том, что для синтеза нужно писать отдельный http-коннектор.

Про Asterisk Speech API думал, но синтез ведь все равно голосом не прервать. Т.е. сессию синтеза внутри распознавания запустить можно, но прервать синтез с началом голоса не выйдет. Или я чего-то не понимаю. У вас имеется опыт с Speech API?

С FreeSWITCH работал, но не много. Как минимум, с barge-in там проблем нет. Там же почти VoiceXML для построения диалплана используется. В ближайшее время планировал сделать статью по работе с FreeSWITCH.
Проверил, все работает.
Звонков входящих много, видимо, свободного движка не было.
Попробуйте еще раз.
>>А у меня планировалось, что перечень ключевых слов должен был несколько раз в день меняться.
Вы легко можете генерировать грамматики автоматически и их использовать. Перечень слов вносится в грамматику, но ничто вам не мешает этот перечень менять. Грамматика — это просто текстовый файл. Не надо ни к кому обращаться и нет никакого геммороя. Нужен любой текстовый редактор;)
Распознавание слитной речи только начинает развиваться и технология пока очень сырая для использования в enterprise-решениях.
Еще раз, это стандарт индустрии, а не выдумка ЦРТ.
Прежде чем продолжать диалог, пожалуйста, ознакомьтесь со стандартами и имеющимися решениями по построению голосовых меню.
Если вы найдете решение для call-центров, построенное на других принципах и технологиях я у вас его с удовольствием куплю))
И все таки мы говорим на разных языках и о решениях совершенно разного класса. Не надо сравнивать велосипед с поездом;)
Это разговор в стиле «Зачем покупать AVP, GVP или Cisco за такие огромные деньги, если есть Asterisk?»
Конкуренты есть и цена у них значительно выше, но, видимо, их имена вам ничего не скажут.
Мне кажется, вы не совсем понимаете о чем идет речь. Чтобы слово было распознано, его всегда надо предварительно описать. Я не знаю точно, как это сделано у вас в машине, но вашей программе ни что не мешает автоматически создавать собственную грамматику, получив записи из записной книжки, и проводить распознавание по этой грамматике. Вот если бы она все распознавала без скачивания информации из записной книжки;)

Распознавание слитной речи сейчас, конечно, популярный тренд, но до бытовых устройств оно дойдет очень не скоро.

Вообще, сравнивание данных решений, как минимум, некорректно. Это примерно как мопед и товарный поезд)). Распознавание голосовых команд для ПК и КПК давно есть, но с промышленными решениями их никто не сравнивает.
Активно использую XEN на CentOS 5.x. Новость, что в 6-ке его убрали, расстроила. Так что автору за инфу спасибо. Возможно, в будущем пригодится.
Многоуважаемый risunky, стоимость одного канала зависит от общего количества приобретаемых каналов. Так что вам все таки в ЦРТ с этим вопросом.
Сейчас конвертация осуществляется запуском соответствующей команды в командной строке.
В ближайшее время и эта необходимость отпадет, т.к. конвертер грамматик будет встроен в систему и они будут конвертироваться автоматически.
VoiceNavigator поддерживает только русскую речь. Для английской есть множество других решений)
Как такового ограничения нет. При соответствующем тюнинге система может работать и с несколькими тысячами айтемов в грамматике.
Ограничение, о котором вы говорите, это возможность работать с xml-грамматикой налету. Да, действительно, при размере грамматики более 300-400 айтемов ее необходимо вручную конвертировать во внутренний формат VjiceNavigator и использовать уже отконвертированную грамматику. Конвертация ускоряет запуск процесса распознавания.
Точность распознавания во многом зависит от грамматики, ее размера и сложности. На каких-то грамматиках точность будет 98%, на каких-то 85.
Стоимость зависит от количества одновременных каналов синтеза и распознавания. Информации по стоимости, думаю, лучше узнавать в ЦРТ:))
Да. Хотя в теории можно подключить любую платформу, работающую по MRCP.
ОК, в ближайшее время постараюсь.

Information

Rating
Does not participate
Location
Таиланд
Date of birth
Registered
Activity