Компания
166,79
рейтинг
16 февраля 2015 в 09:34

Разное → Сappasity 3D Scan – 3D сканирование с использованием Intel RealSense. Опыт разработки



В 2014 году нами было принято решение запустить софтверный стартап, где мы могли бы использовать наш пятилетний опыт в 3D-технологиях, накопленный при разработке игр. Тематика 3D реконструкции интересовала нас давно, и на протяжении 2013 года мы проводили многочисленные эксперименты с решениями других компаний – так исподволь накапливалось желание создать собственное. Как вы уже, наверное, поняли, наша мечта была успешно воплощена в реальность; хроника этого воплощения – под катом. Там же история наших взаимоотношений с Intel RealSense.

Стерео реконструкцией мы занимались и ранее для собственных нужд, поскольку искали оптимальный способ производства 3D моделей, и использование решений по 3D захвату представлялось вполне логичным. 3D сканирование с использованием ручного сканера казалось нам самым доступным вариантом. В рекламе все выглядело просто, но оказалось, что процесс занимает много времени: часто теряется трекинг и приходится начинать с самого начала. Но больше всего огорчала размытая текстура. То есть, такой контент для игр нам не годился.

Мы приценились к фотограмметрии и поняли, что лишних $100,000 долларов у нас нет. К тому же, требовались специальные навыки настройки камер и затем долгая постобработка высокополигональных данных. Получалось, что мы точно ничего не экономим, а, наоборот, все становилось значительно дороже, учитывая наши объемы производства контента. Именно в этот момент появилась мысль попробовать сделать что-то свое.

Изначально нами были продуманы требования к системе, которая была бы удобна для производства контента:

  • Стационарность системы — откалибровал один раз и можно снимать.
  • Моментальная съемка — нажал и готово.
  • Возможность подключать зеркальные камеры для фотореалистичного качества текстуры.
  • Независимость системы от типа сенсоров – технологии не стоят на месте, и появляются новые сенсоры.
  • Полная реализация технологии «клиент-сервер». Каждый клиент – это компьютер с сенсором.
  • Отсутствие ограничений по количеству устройств – нам может понадобится моментально захватывать объекты разного размера и, следовательно, любые ограничения повлекут за собой проблемы.
  • Возможность вывести модель на 3D печать.
  • Наличие плагина для показа в браузере и SDK для интеграции в мобильные приложения.

Вот такая система мечты. Аналогов мы не нашли, поэтому все писали сами. Прошел почти год и осенью 2014 года наконец-то появилась возможность рассказать про наши наработки потенциальным инвесторам. А уже в начале 2015 года мы продемонстрировали систему, собранную с использованием сенсоров Intel RealSense, на CES 2015.



Но что было до этого?

Написание сетевого кода с собственным протоколом передачи данных сразу же оправдало себя. Мы вели работу с сенсорами PrimeSense, однако, если при наличии более двух сенсоров на одном ПК, функционировали они крайне нестабильно. В тот момент мы и не задумывались, что компании Intel, Google и другие лидеры рынка уже работают над новыми сенсорами, но по привычке спроектировали расширяемую архитектуру. Соответственно, наша система легко поддерживала любое из этого оборудования.

Больше всего времени ушло на написание калибровки. Известные тулкиты для калибровки не были идеальными, так как никто глубоко не разбирал анатомию сенсоров PrimeSense и калибровались далеко не все нужные нам параметры. Мы отказались от заводской калибровки PrimeSense и написали собственную, основываясь на IR данных. Попутно было проведено множество исследований функционирования сенсоров и алгоритмов построения и текстурирования меша. Многое переписывалось и переделывалось. В результате мы заставили все сенсоры в нашей системе снимать одинаково. А заставив, сразу подали на патент и в настоящий момент имеем U.S. Patent Pending.

После того, как PrimeSense купила компания Apple, стало понятно, что стоит переключить внимание на других производителей. Благодаря уже имеющимся на тот момент наработкам, софт с сенсорами Intel RealSense заработал всего через две недели после получения сенсоров от компании Intel. Теперь мы используем Intel RealSense, а для съемок на больших дистанциях — Microsoft Kinect 2. Недавно смотрели CES keynote Intel на тему сенсоров для роботов. Возможно, они заменят нам Kinect 2, если станут доступны разработчикам.

При переходе на RealSense с новой силой заявила о себе проблема калибровки. Для того, чтобы окрасить точки облака в соответствующие цвета или затекстурить полученный из облака меш необходимо знать положения RGB и Depth камеры относительно друг друга. На RealSense планировалось вначале использовать ту же самую собственную ручную схему, что и на PrimeSense, но мы столкнулись с ограничением сенсоров – данные приходили уже после обработки фильтрами, а работа с RAW требует иного подхода. К счастью Intel RealSense SDK имеет функционал по преобразованию координат из одного пространство в другое, например, из Depth Space в Color Space, из Color в Depth Space, из Camera в Color и т.д. Поэтому, чтобы не для тратить время на разработку альтернативных методов калибровки было принято решение воспользоваться данным функционалом, который, на удивление, очень хорошо работает. Если сравнивать окрашенные облака точек с Primesense и c RealSense, то облака с RealSense окрашиваются более качественно.



Что же у нас получилось? Сенсоры и камеры стоят по кругу вокруг снимаемого объекта. Мы их калибруем и находим позиции сенсоров, камер и их углы наклона относительно друг друга. Опционально мы используем камеры Canon Rebel для текстурирования как оптимальные по цене/качеству. Однако каких-либо ограничений тут нет, поскольку мы сами калибруем все оптические параметры, включая искажения.



Текстуры проецируются и блендятся сразу на 3D модель. Поэтому результат очень четкий.



3D модель строится из облаков точек, которые мы формируем из N сенсоров. Скорость захвата данных составляет от 5 до 10 секунд (зависит от типа и количества сенсоров). И мы получаем полную модель объекта!



Посмотреть 3D модель

Превью 3D модели:

В этом году мы планируем выпустить сразу 4 продукта: Сappasity Human 3D Scan для сканирования людей, Сappasity Room 3D Scan для помещений, Сappasity Furniture 3D Scan для мебели и Cappasity Portable 3D Scan для сканирования с использованием одного сенсора.



Cappasity Portable 3D Scan выйдет буквально через пару месяцев для ноутбуков с Intel RealSense. Мы ее представим на конференции GDC 2015, проводимой 4го марта в Сан-Франциско. Вы сможете создавать качественные 3D модели с использованием поворотного столика или же вращая модель вручную. Причем, если у вас есть и фотоаппарат, то мы предоставим вам возможность создавать текстуры высокого разрешения.



Почему мы выбрали Intel RealSense? Мы решили сфокусироваться на технологии компании Intel по нескольким причинам:
  • уже около 15 моделей ноутбуков поддерживают RealSense;
  • планируется выход планшетов с RealSense;
  • открывается путь к B2C продажам – новое направление монетизации наших продуктов;
  • имеется качественное SDK;
  • сенсоры отличаются высокой скоростью работы.

Не последнюю роль также играет хорошая техническая, маркетинговая и бизнес-поддержка со стороны самой компании. Мы плотно сотрудничаем с 2007 года, и никогда не было ситуаций, когда мы не могли бы получить ответ на наши вопросы от коллег из компании Intel.

Если рассматривать технологию RealSense с точки зрения 3D сканирования на расстоянии до одного метра, то можно смело назвать компанию Intel лидером в данной области.

Несомненно, современные технологии открывают широкие возможности для работы с глубиной окружающего нас мира!

Мы регулярно выкладываем новые материалы о нашем прогрессе на наших страницах в Facebook и в Twitter.
Автор: @cappasity
Intel
рейтинг 166,79

Комментарии (31)

  • 0
    Однако каких-либо ограничений тут нет, поскольку мы сами калибруем все оптические параметры, включая искажения.
    Калибруется ли зависимость от дальности, на которую сфокусировался объектив? Если да — то откуда берётся эта дальность для конкретной фотографии для последующей обработки?
    • +1
      Мы не меняем фокусировку внешних камер после калибровки. Изначально их калибруем по планируемому для съемок объему.
      • 0
        То есть, используете только объективы, у которых есть ручная фокусировка со шкалой? Когда я искал такие для Олимпуса, оказалось, что всё очень плохо — чаще всего шкала появляется только начиная со «среднего класса» — 600$ и больше. И они все тяжелые. У Кэнона с этим лучше или так же?
        • 0
          На объективе Canon есть переключатель AF/MF. В начале мы фокусируемся по ожидаемым максимальным габаритам объекта в режиме автофокуса (например, берем доску и делаем шот в авторежиме для каждого фотоаппарата) и потом переключаем на MF. Только после этого калибруем параметры камер.

          Мы используем бюджетные модели типа Canon Rebel (цена 500-600). Сейчас отказываемся от Canon SDK и мигрируем на PTP протокол. После этого попробуем использовать бюджетные камеры и поддержим касту поклонников Nikon. Пока не было опыта работы с PTP и еще не знаем на какие грабли наступим.

          Пока самый бюджетный вариант из проверенных — веб-камера Logitech HD. Качество лучше чем у RealSense RGB, но конечно хуже чем у Canon.

          Коллеги из США посоветовали обратить внимание на оптику GoPro. Жалко, что стриминг цветного канала делается через полухак… Но очень хочется попробовать!

          Встречался с Olympus на CES. Насколько я понимаю они присматриваются к тематике 3D реконструкции. Думаю в ближайшие пару лет мы увидим много всего интересного.
          • 0
            Спасибо за ответы!
            В режиме MF после выключения-включения камеры фокус объектива не меняется?
            И ещё вопрос — камеру калибруете сами? По какой модели? Я пытаюсь калибровать, используя многочлены 7-й степени, но никак не удаётся получить точность лучше двух пикселей (для 16-мегапиксельной матрицы). Для широкоугольного объектива это полторы угловых минуты, а для fish-eye ещё больше, для наклейки цвета подходит мало.
            • 0
              В MF режиме фокус не меняется.

              У нас обычно погрешность от трех до пяти пикселей на Rebel T3i камере. Корректируем уже на стадии проецирования текстуры. То есть погрешность до 5 пикселей нас пока устраивает.
              • 0
                А сколько параметров корректируете? Мне при наложении пока удалось скорректировать только ориентацию камеры (три параметра). И то при наличии амплитудной картинки со сканера. Думаю, включить ли возможную ошибку масштаба (однородное растяжение всей фотографии). Но боюсь, что тогда в модель коррекции в конечном итоге войдут все параметры камеры и объектива — сейчас их в совокупности 14 — и у алгоритма будут отличные шансы скатиться в совсем неправильный локальный минимум.
  • 0
    3D модель строится из облаков точек, которые мы формируем из N сенсоров.
    А здесь чем пользуетесь? Понадобился свой код, или хватило возможностей какой-нибудь из общедоступных библиотек?
    • 0
      В самом начале проекта использовали PCL, но после рефактора решили отказаться. Причин было несколько: 1) свой код легче расширять и поддерживать. 2) тянуть большие опенсорс библиотеки на мобильные устройства — дополнительные риски. 3) если говорить о лицензировании своего решения, то опять же нет желания разбираться в чужих лицензиях. В будущем планируем оставить только QT из внешних библиотек. Но это пока мечты, так как рук на все не хватает. Для 3д реконструкции сейчас реализовали два алгоритма — пуассон и afront для ровных поверхностей. Готовится третий. Пока noname :)
  • 0
    1.
    Мы приценились к фотограмметрии и поняли, что лишних $100,000 долларов у нас нет. К тому же, требовались специальные навыки настройки камер и затем долгая постобработка высокополигональных данных.

    На что требуется $100,000 долларов?

    2. Чем ваша разработка отличаются от других пакетов для фотограмметрии? Например от agisoft.
    • +1
      1. Камеры DSLR, оборудование для студии (свет, штативы, синхронизация и тп), Дальше считаем стоимость пост-обработки контента * планируемое число моделей. На круг набегает.

      2. Мы не используем фотограмметрию. Внешние камеры нужны для наложения текстур высокого разрешения. В целом запрос рынка следующий:

      «Dear Sir\Madame,
      Hi,
      We are a 3d printing company from Turkey and we need an affordable 3d body scanner to produce lifelike figurines

      We are interesting with DSLR camera + software solution. Actually we are trying to make body scan with Agisoft + 36 DSLR camera + post processing softwares, final result is very good but labor and time cost is huge. So please inform us about your DSLR system + software with pricing.»

      Доступное, легкое в калибровке и расширяемое решение. В данном сегменте мы и планируем работать.

      Фотограмметрия при должной настройке даст лучший результат при сканировании человека, но странно ее использовать если требуется снять 2000 моделей для интернет-магазина или если модель делается только для 3D печати. У всех есть свои плюсы, минусы и ниши.

      • 0
        Если снимать не человека, а товар для интернет-магазина, то при фотограмметрии можно обойтись и 3-4 камерами и поворотной платформой. Настраивать там особо ничего не требуется, все калибруется автоматически, при обработке.

        Насчет стоимости пост-обработки — нужно только машинное время, участие человека в принципе не требуется, можно поставить обрабатываться в автоматическом режиме. А если делать с низким 3D разрешением, примерно как у вас, то скорость обработки будет вообще замечательная. При этом из исходных снимков всегда можно будет сделать и качественную модель, если потребуется.
        • 0
          Спасибо за информацию. Где можно посмотреть примеры сетапа, позволяющие снимать предмет со всех сторон? Например, мне требуется снять кресло. Снизу и сверху. Насколько я понимаю предложенная поворотная платформа и 3-4 камеры не решат данную проблему. 3-4 камеры позволяют снимать объект какого размера?

          Проведенные эксперименты с точностью показали сильную зависимость от освещенности объекта. Другими словами — без профессиональной студии там делать нечего. Будут проблемы со сходимостью камер в автоматическом режиме. Возможно за полтора года софт уже улучшился. Но судя по отзывам клиентов калибровка системы для съемки человека занимает 4-5 часов. Это правда?

          Но опять же все зависит от нужд и как потом используется контент. В приложениях/играх, интернет магазине или для 3д печати. Мы начинали с использования контента для игр и необходимый пост-продакшен после фотограмметрии равнялся стоимости производства модели с нуля.

          В автоматическом режиме получаем абсолютно дикий полигонаж. При низком разрешении качество было как в играх 90х годов. Мы искали решение, которое выдает фототекстуру и адекватную сетку для возможности рига.

          Да, и мы хотели снимать еще объекты со всех сторон.
          • 0
            Спасибо за информацию. Где можно посмотреть примеры сетапа, позволяющие снимать предмет со всех сторон? Например, мне требуется снять кресло. Снизу и сверху. Насколько я понимаю предложенная поворотная платформа и 3-4 камеры не решат данную проблему. 3-4 камеры позволяют снимать объект какого размера?

            Пример сетапа показать не могу, медведь ниже был снят на 4 камеры и поворотную платформу. Есть вид и сверху и снизу, главное грамотно расставить камеры. Размер объекта может быть любым, количество камер зависит не от размера объекта, а от того сколько точек вам нужно в облаке и сколько полигонов в модели.
            Но судя по отзывам клиентов калибровка системы для съемки человека занимает 4-5 часов. Это правда?

            Сильно зависит от мегапиксельности, кол-ва камер, мощности компа. На тот сетап, что я написал (30-40 беззеркалок) это будет в районе 10-30 минут. На 100+ зеркалок конечно дольше, но опять же, можно просто поставить комп помощнее, или взять видеокарту помощнее (agisoft считает и на CPU и на GPU).
            В автоматическом режиме получаем абсолютно дикий полигонаж. При низком разрешении качество было как в играх 90х годов. Мы искали решение, которое выдает фототекстуру и адекватную сетку для возможности рига.

            В настройках можно задать нужное кол-во полигонов, которое потом будет выдаваться в автоматическом режиме, но другое дело что для игры модель все равно стоит доработать — обычно делают скульптинг, ремеш, текстуры по другому запекают, итп. Так что, если объекты не сложные, то может и правда получится, что дешевле их нарисовать с нуля, но это так для любого вида 3д сканирования, разве есть сканеры которые выдают готовую 3д модель, уже оптимизированную для игры?
            Если для 3д печати, то там особо дорабатывать модель не нужно.
            • 0
              Понятно. Я вижу Вы высококлассный специалист в данной области. Большинство клиентов не обладают достаточными знаниями и смотрят в сторону готовых решений. Чтобы поставить и все работало.

              По поводу игры и готовых моделей:

              Наше решение позволяет динамически изменять степень проработки модели, редактировать текстуру и повторно ее проецировать на меш. В разработке находится возможность выделять зоны для детализации (полезно для авторига под анимацию). Конечно мы пока мы еще не сделали генерацию модели человека на 16000 полигонов без ухудшения качества и есть куда развиваться. Но уже сейчас модели экспортируется для мобильного рендера без доработки. Нормалки, спекуляр просчитываем автоматически.

              Ремеш внутри программы, текстуры бьются по 2048 и пока еще в доработке оптимальные UV. Для желающих можно выгрузить в .OBJ, подправить меш скажем в Max/Maya/Zbrush и заново спроецировать текстуру через программу.
              • 0
                Это все есть и в Agisoft.
                Но вы молодцы, продолжайте, конкуренция это всегда хорошо :)
      • 0
        Да, и насчет $100,000.
        Для съемки человека с низким 3D разрешением, за 1 раз, без поворотной платформы, хватит 30-40 беззеркалок. Это бюджет порядка $5,000-7,000. Свет, штативы и синхронизация это еще $1,000-2,000.
        А сколько стоят сенсоры Интел и сколько их надо для съемки человека в полный рост?
        • 0
          Подскажите пожалуйста какие фотоаппараты имеются в виду и где можно посмотреть примеры текстуры. Если брать самый дешевый Rebel, то это $600 со скидкой. (http://www.amazon.com/Canon-EOS-Rebel-T5-Professional/dp/B00J34YO92)
          Итого получается $24,000. Синхронизация… Последнее решение, которое я видел было в 10 раз больше.

          Пример студии — www.3dtotal.com/index_interviews_detailed.php?id=24#.VOH_vCw4cvV

          Буду благодарен, если дадите ссылки на свет за $1,000-2,000. Мы видно считали оборудование другого класса и ссылки на бюджетный свет для студии за такую цену думаю не только нам будет интересен. Адекватный лайтбокс для съемок в полный рост будет стоить дороже.

          Интел не продает отдельно сенсоры. Есть брать за основу сетап на базе Kinect V2, то полный рост снимается с 7 сенсоров (3*2 + 1 сверху) по цене $200. Можно не использовать DSLR, так как текстура у камеры Кинекта приличного уровня.

          • 0
            Я для съемки использую Nikon 1 S1 + самостоятельная доработка — подпаиваю кабель, по нему идет питание, а также по нему делается спуск затвора. Стоимость этой камеры в Москве $160. Спуск производится контроллером на ардуине.
            Скрытый текст
            imageСодержимое

            Пример облака точек/solid/текстуры
            Скрытый текст
            image

            Есть другие беззеркалки, где доработка не требуется, а управлять спуском можно через штатное гнездо. Но мне было удобнее сделать 1 кабель по которому и питание и управление.
            Импульсный студийный свет начинается от ~5000 руб за моноблок market.yandex.ru/search.xml?&text=%D0%B8%D0%BC%D0%BF%D1%83%D0%BB%D1%8C%D1%81%D0%BD%D1%8B%D0%B9%20%D0%BC%D0%BE%D0%BD%D0%BE%D0%B1%D0%BB%D0%BE%D0%BA&hid=90610&how=aprice&np=1
            3 голов вполне достаточно, то есть свет начинается даже от $240. Лайтбокс не требуется, достаточно комнаты со светлым потолком и стенами, даже Infinite-Realities освещают так же.

            Пример студии — www.3dtotal.com/index_interviews_detailed.php?id=24#.VOH_vCw4cvV

            Infinite-Realities снимают модели с таким качеством www.youtube.com/watch?v=B3HIq_1SLEg
            а я писал про невысокое 3D разрешение.
            Если нужно качество как у них, то потребуется 100+ камер. Но Вы же сами пишите, что Вам такое качество не требуется.
            • 0
              Мы не такие умельцы, как Вы ;) Ищем готовые решения.

              К сожалению не могу открыть примеры под «скрытым текстом». Может быть не загрузились? Пишет «image», а картинки нет. Спасибо!

              Увы, но не всегда есть возможность выделить комнату. Лично нам подходит исключительно лайтбокс для опенспейса (мы разворачиваем наш сетап в объеме 3x3x3). Для сенсоров оптимально иметь несколько источников равномерного освещения. Но думаю и тут есть возможность что-то сделать своими руками. Мы проводили опрос среди потенциальных клиентов по поводу условий сканирования. Желаемый максимум — это размер кабинки как у шепифай (артек).

              По ссылке пример как выглядит текстура с Canon DSLR. Это мы собирали пример мобильной 3D рекламы. Низкое разрешение 3D модели для нас является как раз плюсом, так как текстура остается высокого разрешения. Это прямой граб с iPad через тюнер.

              • 0
                А так?
                postimg.org/image/b8vizaedv/

                Полигонаж и разрешение текстур не связаны. Я могу выставить малое кол-во полигонов, а текстуры оставить такими же.
                С низким полигонажем модель будет обрабатываться раз в 10 быстрее, чем на максимуме.
                Качество текстур будет такое же и они накладываются быстро.
                • 0
                  Теперь видно. Спасибо. А можете загрузить модель на sketchfab?
                  • 0
                    Сейчас нет, может потом смогу.
        • +1
          Для разработчиков Intel RealSense можно купить за $99 за сенсор + доставка (у меня получилась $33 в Москву): click.intel.com/intel-realsense-developer-kit.html. Там не сразу покупка, а что-то вроде предзаказа, через некоторое время должно прийти подтверждение с возможностью покупки.
  • 0
    Сколько вы планируете просить за копию?
    Что по чём вообще будет?
    • 0
      Будет подписка на софт + роялти с модели или покупка безлимитной лицензии (на выбор). Цены пока опубликовать не могу. Согласовываем с потенциальными инвесторами/партнерами. В целом будет не дороже, чем берет Matterport для сканирования помещений ($49-$150 в месяц). А безлимитная версия будет дешевле, чем у Agisoft.

      Много запросов на готовый комплект, хотя изначально мы не планировали этим заниматься, а делали решение как апгрейд для фотостудии. Сейчас просчитываем варианты для подобных бандлов. Есть еще пара месяцев, чтобы определиться.

      Будет два софтверных решения — одно только для людей и выпуклых предметов. Другое для мебели и сложных предметов. Там разные алгоритмы реконструкции и клиентские сегменты не пересекаются.

      Опрос западных коллег, кто занимается 3D печатью, показал, что цена мечты на весь комплекс моментального сканирования (штативы, камеры, сенсоры, компьютеры и тп) составляет ~$10,000-$12,000. Сейчас начинается демпинг. Фигурки людей продают уже по $40 (цветные) и все хотят снижать свои затраты, уменьшая время на окупаемость. Клиентов на 3D копии объективно мало, если это не проходное место типа торгового центра. Сканирующие будки стоят в десятки раз дороже. Посмотрим насколько мы уложимся в данный прайс, так как пока наша цель выйти на окупаемость и нарастить клиентскую базу. Рост темы еще впереди и успеем заработать.

      Сейчас готовим совсем демократичное решение для ноутбуков Intel с сенсорами RealSense. Скан ручной или с использованием поворотного столика. Можно будет сканировать и шарить бесплатно, а экспортировать уже после активации.

      Если интересует решение, то можно подписаться на бета тест через сайт www.cappasity.com или отслеживать нас через страничку на Facebook — www.facebook.com/cappasity. Мы там пишем только о продукте и показываем прогресс софта каждую неделю.

  • 0
    Почему мы выбрали Intel RealSense?

    А как быть с проваливающимся чёрным (как с клеточками во втором видео, www.youtube.com/watch?v=BUcFO1_jNsc)?
    • 0
      Да, это действительно проблема. В большинстве случае лечится увеличением значения параметра motiontradeoff у сенсора до 50-100. Тогда многие невидимые на depth участки будут прорабатываться. Но при этом возникнут дополнительные шумы. Их уже нужно устранять другими алгоритмами и это крайне неудобно, если использовать стандартный fusion.

      Я верю, что проблему можно исправить на уровне SDK/прошивки. Так как на IR картинка совсем иная. Посмотрим будут ли апдейты по данной теме.

      Кстати, если интересно, то можно посмотреть на наши эксперименты с текстурным мэппингом тут — sketchfab.com/kpopov/models
      Есть и черные предметы. Снимали с девелоперского ультрабука.
    • 0
      Альтернативный вариант — снимать блестящие и черные места очень близко и под разными углами. Но не всегда есть возможность избежать эффекта вдавливания.
      • 0
        Просто сейчас, с точки зрения бизнеса, это выглядит ключевой проблемой ToF-камер: если некоторые объекты нельзя отсканировать без «вмятин», то это сильно сужает область применимости. А если черный элемент в реальности выпуклый, то мы ещё и цветовую информацию будем проецировать не туда. Сколько людей носят чёрное, процентов 20 неудачников, которые приехали — попробовали отсканироваться — и уехали ни с чем, будет?..
        • 0
          Мы пока не рассматриваем для фулбоди скана RealSense, так как ограничение зоны сканирования в 1 метр — крайне мало.
          Если говорить о fusion скане тела или о предметах, то сенсоры испытывают проблемы со 100% черным цветом. Настройки параметров камер помогают находить решение.

          Если рассматривать систему моментального сканирования, то остаются еще PrimeSense и Kinect2. Пока лучший вариант по захвату черного цвета — использование PrimeSense. У него свои проблемы, но с черным, шерстью и тп он объективно пока лучший. Опять же есть и Кинект2. Там меньше проблем с черным, но не все идеально по другим моментам.

          Для каждой задачи подойдет свое железо.

          Все перечисленные проблемы не являются стоперами для бизнеса. Это просто усложняет разработку, но с другой стороны снижает конкуренцию со стороны тех, кто не сможет решить эти задачки. Многие недостающие данные можно восстановить или компенсировать.

          Большинство студий предупреждают клиентов по поводу одежды и аксессуаров. Даже дорогие сканеры будут испытывать проблемы с отражающими предметами. Нет ничего идеального.

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.

Самое читаемое Разное