Как раз решил настроить OpenVPN на своем VPS на базе CentOS.
Сделал по инструкции.
Прописываю параметр push «redirect-gateway def1 bypass-dhcp»
Трафик до сервера ходит нормально, но вот дальше начинаются проблемы.
Трассировка на доменные имена на работает.
Трассировка на, к примеру, 8.8.8.8 занимает пару минут.
На машине ничего не открывается.
Клиент под Windows.
route PRINT на нем выдает
IPv4 таблица маршрута
===========================================================================
Активные маршруты:
Сетевой адрес Маска сети Адрес шлюза Интерфейс Метрика
0.0.0.0 0.0.0.0 192.168.1.1 192.168.1.2 25
0.0.0.0 128.0.0.0 10.18.0.5 10.18.0.6 30
10.18.0.0 255.255.255.0 10.18.0.5 10.18.0.6 30
10.18.0.4 255.255.255.252 On-link 10.18.0.6 286
10.18.0.6 255.255.255.255 On-link 10.18.0.6 286
10.18.0.7 255.255.255.255 On-link 10.18.0.6 286
…
Ранее с такой проблемой не сталкивался. В iptables все прописано корректно. Как понять в чем может быть проблема?
Весь таймаут тоже выжидать не обязательно. После получения события, можно сразу переходить к следующим пунктам. Но с событиями я пока сам до конца не разобрался. Если напишешь статью по работе в ESL, будет много благодарностей))
Точно сказать не могу, но думаю, что логика именно такая. Т.к. speak можно прервать (barge-in), то либо они должны запускаться параллельно, либо в FS очень уж быстро происходит запуск распознавания.
Подборка прекрасна. Спасибо!
Музыка, если прослушивать на самом сайте и через скачанный плейлист отличается. При этом на сайте играет хорошо, а при проигрывании плейлиста часто запинается, слушать невозможно. Проигрывал aimp-ом и vlc.
Это только у меня так?
Игорь, спасибо за хороший отзыв.
С авторами VXI я тоже общался, но все закончилось на том, что для синтеза нужно писать отдельный http-коннектор.
Про Asterisk Speech API думал, но синтез ведь все равно голосом не прервать. Т.е. сессию синтеза внутри распознавания запустить можно, но прервать синтез с началом голоса не выйдет. Или я чего-то не понимаю. У вас имеется опыт с Speech API?
С FreeSWITCH работал, но не много. Как минимум, с barge-in там проблем нет. Там же почти VoiceXML для построения диалплана используется. В ближайшее время планировал сделать статью по работе с FreeSWITCH.
>>А у меня планировалось, что перечень ключевых слов должен был несколько раз в день меняться.
Вы легко можете генерировать грамматики автоматически и их использовать. Перечень слов вносится в грамматику, но ничто вам не мешает этот перечень менять. Грамматика — это просто текстовый файл. Не надо ни к кому обращаться и нет никакого геммороя. Нужен любой текстовый редактор;)
Еще раз, это стандарт индустрии, а не выдумка ЦРТ.
Прежде чем продолжать диалог, пожалуйста, ознакомьтесь со стандартами и имеющимися решениями по построению голосовых меню.
Если вы найдете решение для call-центров, построенное на других принципах и технологиях я у вас его с удовольствием куплю))
И все таки мы говорим на разных языках и о решениях совершенно разного класса. Не надо сравнивать велосипед с поездом;)
Это разговор в стиле «Зачем покупать AVP, GVP или Cisco за такие огромные деньги, если есть Asterisk?»
Конкуренты есть и цена у них значительно выше, но, видимо, их имена вам ничего не скажут.
Мне кажется, вы не совсем понимаете о чем идет речь. Чтобы слово было распознано, его всегда надо предварительно описать. Я не знаю точно, как это сделано у вас в машине, но вашей программе ни что не мешает автоматически создавать собственную грамматику, получив записи из записной книжки, и проводить распознавание по этой грамматике. Вот если бы она все распознавала без скачивания информации из записной книжки;)
Распознавание слитной речи сейчас, конечно, популярный тренд, но до бытовых устройств оно дойдет очень не скоро.
Вообще, сравнивание данных решений, как минимум, некорректно. Это примерно как мопед и товарный поезд)). Распознавание голосовых команд для ПК и КПК давно есть, но с промышленными решениями их никто не сравнивает.
Сейчас конвертация осуществляется запуском соответствующей команды в командной строке.
В ближайшее время и эта необходимость отпадет, т.к. конвертер грамматик будет встроен в систему и они будут конвертироваться автоматически.
Как такового ограничения нет. При соответствующем тюнинге система может работать и с несколькими тысячами айтемов в грамматике.
Ограничение, о котором вы говорите, это возможность работать с xml-грамматикой налету. Да, действительно, при размере грамматики более 300-400 айтемов ее необходимо вручную конвертировать во внутренний формат VjiceNavigator и использовать уже отконвертированную грамматику. Конвертация ускоряет запуск процесса распознавания.
Точность распознавания во многом зависит от грамматики, ее размера и сложности. На каких-то грамматиках точность будет 98%, на каких-то 85.
Стоимость зависит от количества одновременных каналов синтеза и распознавания. Информации по стоимости, думаю, лучше узнавать в ЦРТ:))
Сделал по инструкции.
Прописываю параметр push «redirect-gateway def1 bypass-dhcp»
Трафик до сервера ходит нормально, но вот дальше начинаются проблемы.
Трассировка на доменные имена на работает.
Трассировка на, к примеру, 8.8.8.8 занимает пару минут.
На машине ничего не открывается.
Клиент под Windows.
route PRINT на нем выдает
IPv4 таблица маршрута
===========================================================================
Активные маршруты:
Сетевой адрес Маска сети Адрес шлюза Интерфейс Метрика
0.0.0.0 0.0.0.0 192.168.1.1 192.168.1.2 25
0.0.0.0 128.0.0.0 10.18.0.5 10.18.0.6 30
10.18.0.0 255.255.255.0 10.18.0.5 10.18.0.6 30
10.18.0.4 255.255.255.252 On-link 10.18.0.6 286
10.18.0.6 255.255.255.255 On-link 10.18.0.6 286
10.18.0.7 255.255.255.255 On-link 10.18.0.6 286
…
Ранее с такой проблемой не сталкивался. В iptables все прописано корректно. Как понять в чем может быть проблема?
Музыка, если прослушивать на самом сайте и через скачанный плейлист отличается. При этом на сайте играет хорошо, а при проигрывании плейлиста часто запинается, слушать невозможно. Проигрывал aimp-ом и vlc.
Это только у меня так?
С авторами VXI я тоже общался, но все закончилось на том, что для синтеза нужно писать отдельный http-коннектор.
Про Asterisk Speech API думал, но синтез ведь все равно голосом не прервать. Т.е. сессию синтеза внутри распознавания запустить можно, но прервать синтез с началом голоса не выйдет. Или я чего-то не понимаю. У вас имеется опыт с Speech API?
С FreeSWITCH работал, но не много. Как минимум, с barge-in там проблем нет. Там же почти VoiceXML для построения диалплана используется. В ближайшее время планировал сделать статью по работе с FreeSWITCH.
Звонков входящих много, видимо, свободного движка не было.
Попробуйте еще раз.
Вы легко можете генерировать грамматики автоматически и их использовать. Перечень слов вносится в грамматику, но ничто вам не мешает этот перечень менять. Грамматика — это просто текстовый файл. Не надо ни к кому обращаться и нет никакого геммороя. Нужен любой текстовый редактор;)
Прежде чем продолжать диалог, пожалуйста, ознакомьтесь со стандартами и имеющимися решениями по построению голосовых меню.
Если вы найдете решение для call-центров, построенное на других принципах и технологиях я у вас его с удовольствием куплю))
Это разговор в стиле «Зачем покупать AVP, GVP или Cisco за такие огромные деньги, если есть Asterisk?»
Конкуренты есть и цена у них значительно выше, но, видимо, их имена вам ничего не скажут.
Распознавание слитной речи сейчас, конечно, популярный тренд, но до бытовых устройств оно дойдет очень не скоро.
Вообще, сравнивание данных решений, как минимум, некорректно. Это примерно как мопед и товарный поезд)). Распознавание голосовых команд для ПК и КПК давно есть, но с промышленными решениями их никто не сравнивает.
В ближайшее время и эта необходимость отпадет, т.к. конвертер грамматик будет встроен в систему и они будут конвертироваться автоматически.
Ограничение, о котором вы говорите, это возможность работать с xml-грамматикой налету. Да, действительно, при размере грамматики более 300-400 айтемов ее необходимо вручную конвертировать во внутренний формат VjiceNavigator и использовать уже отконвертированную грамматику. Конвертация ускоряет запуск процесса распознавания.
Стоимость зависит от количества одновременных каналов синтеза и распознавания. Информации по стоимости, думаю, лучше узнавать в ЦРТ:))