0,0
рейтинг
31 января 2015 в 18:29

Дизайн → Как мы делали Multitouch Table tutorial

Привет Хабр.
Занимаясь Computer Vision, я интересовался Natural интерфейсами, общался с людьми, кто проектирует столы для баров с touch интерфейсами. И у меня появилась идея сделать свой. Дешево, сердито, но главное, чтобы все работало. То есть важно испытать и протестировать. А тут, мой друг Александр Жеделев, музыкальный продюссер Русского Драматического Tеатра Эстонии, предложил сделать какой нибудь новый музыкальный инструмент для выступления на фестивале Tallinn Music Week. Времени было немного, и мы приступили.

Вообще есть несколько подходов к созданию такого типа столов. Я попытаюсь описать три из них.
Общий принцип построения таких систем таков. Изображение, которое выдает проектор, отображается на стекле позади которого стоит покрытие, в качестве которого можно взять хоть бумагу для выпекания. Касание отражает любую часть излучения обратно, можно поставить под стеклом камеру и детектировать прикосновения. На рисунке внизу можно также увидеть, что помимо проектора, рука снизу подсвечивается источниками инфракрасного излучения (это один из способов построения таких систем).
image
Поскольку нам необходимо ловить только жесты прикосновений, а не картинку с проектора, то необходим способ, чтобы одно не влияло на другое. Для этого используются камеры настроенные на прием только инфракрасного изображения. Обычный сенсор матрицы камеры реагирует как на видимую, так и на инфракрасную часть спектра. На нижеприведенном видео можно увидеть, как камера телефона Sony Xperia реагирует на инфракрасный луч дистанционного датчика Sharp. Глаз же этого луча не видит, и для нас датчик в рабочем режиме воспринимается темным.

Обычно в камере стоит фильтр, который отсекает инфракрасный и пропускает только видимый спектр. Для наших целей нам необходимо переделать все наоборот. То есть снять обьектив, убрать оттуда фильтр, который пропускает только видимый свет, и поставить фильтр, который пропускает только инфракрасное излучение, поскольку жесты мы будет опознавать пользуясь этой частью спектра. Вообще подойдет любая веб-камера. Я взял старую добрую PS3 Eye, поскольку она дает оптимальный результат по цене/качеству. Само снятие фильтра также не представляет сложности. Например так.
Для того, чтобы отсечь видимый свет, необходимо собрать камеру и поставить перед обьективом фильтр, который пропускает только инфракрасное излучение. Его можно купить в радиомагазине. Он выглядит как темное красное стекло. Теперь у нас есть камера которая воспринимает IR излучение. Протестировать ее можно сразу, изображение с проектора должно выглядеть как серый однообразный фон.
Теперь о самих подходах.

Первый — дорогой, но достаточно надежный, это провести по бокам рамы стола, сразу же под стекло, цепь инфракрасных светодиодов, которые будут подсвечивать руки. Плюсы — очень четкое изображение отражения пальцев, которое достигается за счет близости излучающих светодиодов. Минусы — дополнительные сложности в установке диодов и общей схемы их питания. Как правило данная схема используется в коммерческих подходах.
image

Второй — это поставить дополнительные источники инфракрасного излучения под стекло рядом с проектором, как на рисунке в самом начале. Я пробовал этот подход, но выявил несколько недостатков. Излучение должно быть достаточно рассеяным, иначе какие то части будут освещаться сильнее остальных. И существует проблема бликов. Я испытывал пучок IR светодиодов, но они давали очень сильное направленное излучение, которое бликовало. Никакие рассеивающие фильтры не помогали, стекло частично отражало поток, и камера фиксировала постоянно присутствующее пятно. В общем это неудачный подход, и я бы не рекомендовал его. Равномерное освещение получить трудно.

Третий, который использовал я, самый простой и достаточно эффективный. На самом деле, нам и не нужна отдельная подсветка. Дело в том, что лампа проектора испускает излучение достаточно широкого спектра, в том числе и инфракрасное. Достаточно посмотреть через нашу модифицированную камеру на проекцию, и мы увидим равномерный серый фон. Бинго.

Сама рама была собрана из дерева. На нее посажено оргстекло. Камера находилась непосредственно под стеклом.
Это план лаборатории AudioKinetica. Внизу можно видеть схему стола, начерченную маркером.
image

А вот сам стол.


Для распознавания BLOB (это отражения-пятна, которые видит камера) я использовал систему Community Core Vision, CCV. Это готовое решение, которое ретранслирует распознавание и передает результаты по TUIO протоколу. TUIO это открытый фреймворк, который определяет протокол и API для построения multitouch интерфейсов. В принципе, если бы было больше времени, я бы написал свой детектор BLOB на OpenCV, поскольку ничего особо сложного для этой задачи нет. Пятна хорошо видятся, и на OpenCV это выглядело бы так — получаем картинку, убираем шум, строим битмап карту, пропускаем через Canny алгоритм, находим контура и далее транслируем их координаты в TUIO обьекты по спецификации. Понадобился бы модуль калибровки для задания координат. CCV использует вычитание картинки фона из полученного изображения, там есть также адаптивный режим, который учитывает медленные изменения фона. На OpenCV это можно реализовать методом codebook и connected components.
Теперь у нас есть система транслирующая TUIO обьекты, и мы можем использовать все, что принимает эти обьекты, или написать самим клиента. К примеру на Java это делается достаточно легко, в сети есть множество примеров.

Настройки CCV.
image

Далее, поскольку планировалось использовать данный стол для управления синтезом звука, то был использован модуль TUIO для Ableton, который позволяет привязать жесты к параметрам генерации звука, инструментам и так далее. После этого Александр Жеделев занимался настройкой тональности, сопряжения с другими записями, и в общем экспериментировал как хотел. В конце видео показано примерно как и что.


А вот уже подредактированная версия. Смотрите в наушниках.


Как видно на видео, мы уже игрались, ставили на стекло бумагу и рисовали на ней. Получали играющий рисунок.

Одно наблюдение. Не обязательно касаться стекла- Уже на некотором расстоянии от него происходит отражение, и камера фиксирует его. Там есть пространство для игры с настройками, и как результат можно делать воздушный тач-скрин.
Есть одно неудобство связанное с TUIO протоколом, его обьекты надо ретранслировать. То есть; если я хочу паралелльно запустить красивые визуалы и синтез звука, то мне нужен ретранслятор, поскольку если модуль сопряжения принимает TUIO обьект, то допустим Flash визуалы этот обьект уже не видят.

Хочу сказать спасибо всем людям, кто участвовал, особенно Александр Жеделев, Сергею Драгунову, Кристе Кёстер.
AudioKinetica
Александр Тавген @HomunCulus
карма
6,0
рейтинг 0,0

Самое читаемое Дизайн

Комментарии (7)

  • +1
    Как раз очень раздражающий факт состоит в том, что стол реагирует ещё до прикосновения. Обратная связь отсутствует практически полностью.

    То есть если я хочу паралелльно запустить красивые визуалы и синтез звука, то мне нужен ретранслятор, поскольку если модуль сопряжения принимает TUIO обьект, то допустим Flash визуалы этот обьект уже не видят.

    Для этого в ядре Linux есть интересная возможность — reuse сокеты.
    • +1
      В ССV можно поиграться с настроиками и фильтрами, чтобы уменьшить раннее срабатывание стола.

      Спасибо за reuse сокеты. Не знал.
  • +1
    Видел сделанный по такому принципу экран в музее Microsoft в Редмонде еще в начале 2000-х.
  • 0
    Здесь читали reactivision.sourceforge.net/?
    Ну и готовое решение в действии www.youtube.com/watch?v=Qj-fUAupa-o
    • 0
      Да, я знаком с reactivision. Там работа идет с маркерами.В принципе, можно написать свою распознавалку допустим не маркеров, а жестов. То есть, смотря как прикладывать руку к столу. Например три пальца одной руки это одно, четыре — другое. В Java есть достаточно удобный API как для работы с MIDI, так и с TUIO, это дает возможность транслировать сообщения на MIDI пользуясь какой либо внутренней логикой.
      Вообще была задумка создать интерактивные декорации. То есть Multitouch на нескольких плоскостях. Но там появляются сложности другого плана, например соединение нескольких проекторов. Посмотрите например это


      Вот наши эксперименты с использованием Prime Sense технологии. Синтез звука привязан к жестам. Визуальная часть тоже.


      Готовый концепт.


      Но проблема заключается в финансировании. Такие вещи требуют некоторых вложений.
  • 0
    По большому счету, интересно делать именно какие то более глобальные решения. Интерактивный маппинг на улице, к примеру.
  • +1
    Круто, прям вернуло меня на 5 лет назад (8
    Ровно так же делали.

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.