Фотографии данный алгоритм все равно заметно портит.
В особенности лица (ИМХО для фотографий алгоритм динамического контраста не подходит, их нужно просто выделить и обработать отдельно):
Но для выборки, в которой всего две сотни примеров, это неплохой результат.
200 примеров это ведь, вообще говоря, очень много. Странно что только треть кадров (субъективно) распозналась, как содержащие искомый объект.
В чем причина таких результатов — плохое обучение?
Т.к. с лицами детекторы Хаара работают хорошо.
оказывается, это разные задачи — восстановление смазанной картинки, когда пикселей много, но камера шевельнулась, и восстановление малопиксельного изображения
Да-да, мне (как автору SmartDeblur) постоянно приходит большое количество писем с просьбами восстановить номера машин с камер наблюдения, где весь номер занимает несколько пикселей с типичными квадратиками сильного JPEG сжатия. Это, пожалуй, самая популярная тема писем, которые я получаю :)
Какая целевая аудитория статьи и о чем вообще статья с такой сложной темой, где всего одна картинка да и то левая?
Если опытные товарищи — то им это не нужно, они и так знают.
Новички ровным счетом ничего не поймут, куча непонятных терминов Level 2, MM, Bid/Ask, стакан/blotter, ECN, LimitOrder.
Я хоть и в теме биржевой торговли и знаю большинство буковок, но всю статью не осилил.
ИМХО лучше начать с широкой аудитории и рассказать что такое вообще биржа, что на ней торгуется, какие виды ордеров бывают (лимит, маркет, пр.), что такое стакан, основы тех анализа…
Многим будет интересно узнать что такое «Японские свечи» и почему они так удобны:
А как вы боретесь с дисторсией (бочкообразные искажения) объектива?
Ведь в этом случае получаются не прямые линии, а дуги и преобразование Хафа не даст заметного всплеска для детектирования границы.
Если идеально знаешь код системы, то да — вполне неплохо можно и а FAR'е писать и ручками рефакторинг делать (т.к. все взаимосвязи в голове).
Но если взять пример, когда приходит новичок и начинает разбираться с кодом, дебажить, профилировать — то это нельзя эффективно делать фаром. Взять хотя бы проваливание в метод, класс, анализ зависимостей, переименование и пр.
Поэтому слова «у нас самый крутой спец все делает в фаре и не жужжит» говорят лишь о том, что этот спец отлично знает код. Посади его в новый проект и эффективность тут же упадет по сравнении с использованием IDE.
Могу ответить на вопрос, почему все программы дают плохое качество восстановления (как автор программы SmartDeblur)
Причин несколько:
1. Низкий динамический диапазон фотографии, полутона в светлой части практически потеряны — а именно из них собирается исходное изображение при деконволюции.
2. Неравномерное искажение — вверху справа смаз, плюс расфокус по всему полю
3. Большой уровень шума.
Доминирующая причина — 1.
Поэтому ничего существенно лучшего получить не удалось:
Насколько надежно/безопасно автоматическое перелистывание?
Судя по найденным видео это делается не очень бережно.
Часто ли автоматический сканер пролистывает по паре или более страниц (если они склеены или просто плохо листаются)?
Можете рассказать подробнее что за отладочный код, как выглядит и где располагается?
И собственно как помогает найти проблему )
Почему?
В особенности лица (ИМХО для фотографий алгоритм динамического контраста не подходит, их нужно просто выделить и обработать отдельно):
А можете показать где именно они? А то мне совсем неочевидно :)
200 примеров это ведь, вообще говоря, очень много. Странно что только треть кадров (субъективно) распозналась, как содержащие искомый объект.
В чем причина таких результатов — плохое обучение?
Т.к. с лицами детекторы Хаара работают хорошо.
Да-да, мне (как автору SmartDeblur) постоянно приходит большое количество писем с просьбами восстановить номера машин с камер наблюдения, где весь номер занимает несколько пикселей с типичными квадратиками сильного JPEG сжатия. Это, пожалуй, самая популярная тема писем, которые я получаю :)
А что там в московских парках?
Если опытные товарищи — то им это не нужно, они и так знают.
Новички ровным счетом ничего не поймут, куча непонятных терминов Level 2, MM, Bid/Ask, стакан/blotter, ECN, LimitOrder.
Я хоть и в теме биржевой торговли и знаю большинство буковок, но всю статью не осилил.
ИМХО лучше начать с широкой аудитории и рассказать что такое вообще биржа, что на ней торгуется, какие виды ордеров бывают (лимит, маркет, пр.), что такое стакан, основы тех анализа…
Многим будет интересно узнать что такое «Японские свечи» и почему они так удобны:
Ведь в этом случае получаются не прямые линии, а дуги и преобразование Хафа не даст заметного всплеска для детектирования границы.
Но если взять пример, когда приходит новичок и начинает разбираться с кодом, дебажить, профилировать — то это нельзя эффективно делать фаром. Взять хотя бы проваливание в метод, класс, анализ зависимостей, переименование и пр.
Поэтому слова «у нас самый крутой спец все делает в фаре и не жужжит» говорят лишь о том, что этот спец отлично знает код. Посади его в новый проект и эффективность тут же упадет по сравнении с использованием IDE.
Причин несколько:
1. Низкий динамический диапазон фотографии, полутона в светлой части практически потеряны — а именно из них собирается исходное изображение при деконволюции.
2. Неравномерное искажение — вверху справа смаз, плюс расфокус по всему полю
3. Большой уровень шума.
Доминирующая причина — 1.
Поэтому ничего существенно лучшего получить не удалось:
Предварительно сделана гамма коррекция 0.3
Параметры: 8.2 px, Smooth: 90%, Reducing of ringing: 50%
Судя по найденным видео это делается не очень бережно.
Часто ли автоматический сканер пролистывает по паре или более страниц (если они склеены или просто плохо листаются)?