HackDay#25 — хакатон в Нижнем Новгороде

    В Нижнем Новгороде 12-14 апреля, при активной поддержке портала Айти-Событие.рф, пройдет HackDay#25 — хакатон, на котором участники смогут за 48 часов воплотить идеи своих проектов в рабочие прототипы. На два дня вы сможете полностью отключиться от повседневных забот и с головой уйти в разработку проекта.




    Программа


    Хакатон стартует в 18.00 в пятницу и заканчивается в воскресенье в 21.00. Подробная программа.

    На HackDay#25 запланирована образовательная программа


    # Наталья Бурина (ментор американского акселератора 500 startups) расскажет что такое клиенториентированный продукт и почему consumer facing нужно учесть при разработке прототипа;

    # Михаил Кечинов (сооснователь акселератора Coffeelab.vc) объяснит, что такое Minimum Viable Product (MVP) и на чем стоит фокусироваться при разработке прототипа проекта;

    # Сергей Машков (ведущий разработчик Skype) даст практические знания, которые пригодятся для быстрого старта проекта под iOS;

    # Артем Воробьев (инженер Intel) на практике познакомит участников с Intel Perceptual Computing SDK для разработки приложений, использующих инновационные методы взаимодействия с пользователем, такие как распознавание жестов и голоса. Будет рассмотрено взаимодействие с прикладным программным интерфейсом SDK на различных языках программирования и фреймворках.

    Конкурс


    В рамках HackDay#25 пройдет конкурс на разработку приложения, использующего сенсорные технологии и Intel PerC SDK. Лучший проект получит Ultrabook Lenovo IdeaPad Yoga 13 и возможность развиваться при поддержке Intel. Подробнее о конкурсе.



    Приходите и создайте новую историю успеха!



    Мы в социальных сетях:


    Habrahabr / Вконтакте / Twitter / Facebook / Linkedin



    Наши Google Сalendar'и:


    Все города / Москва / Санкт-Петербург / Киев / Минск / Новосибирск / Екатеринбург / Нижний Новгород
    • +14
    • 3,3k
    • 8
    it-доминанта 43,50
    Компания
    Поделиться публикацией
    AdBlock похитил этот баннер, но баннеры не зубы — отрастут

    Подробнее
    Реклама
    Похожие публикации
    Комментарии 8
    • +3
      Непрочь поучаствовать. Мб кто пригласит в команду?=)
      • +1
        Вы можете зарегистрироваться и выбрать понравившийся проект, сразу в него вписаться. Или влиться в проект на открытии в пятницу, во время формирования команд.
        • 0
          Я в курсе. Этот коммент — в адрес хабражителей, которые собираются участвовать в сём мероприятии.
      • +1
        Не нашел, где можно задать вопрос по поводу конкурса Интелового, поэтому спрошу тут: насколько точно распознается артикуляция пальцев этой железкой? Судя по демо-роликам, жесты ограниченны «ладонями в монитор, пальцы растопырить и желательно не сгибать»(насколько я понял используются 3D фичи + геодезическое расстояние для детектирования пальцев?), а это не есть круто…
        И попутный вопрос, какова точность Depth Map получаемой с этой камеры?
        Конкурс ограничен только приложениями для управления PC жестами?
        • +2
          Камера поддерживает так называемый near-field tracking. Дистанция активации, на которой запускается распознавание жестов приблизительно ~30 см.
          Разрешение Depth Map в текущей модели Creative Cam: 320x240.
          Позиции пальцев (finger tracking) могут колебаться на 2-3 пикселя. Точность самой Depth Map зависит от ряда параметров, в т.ч. от текущего освещения.

          По приложениям — любые, использующие возможности sdk — т.е. и жесты и голосовое управление
          • +1
            «Позиции пальцев (finger tracking) могут колебаться на 2-3 пикселя» //я имел в виду немного другое. Судя по роликам оно не восстанавливает 3D артикуляцию, ограничиваясь жестами на плоскости параллельной плоскости монитора + детектирования ладони в целом(без артикуляции) при жестах типа взмаха рукой?
            • +1
              Координаты пальцев возвращаются в двумерных координатах depth изображения, но затем, используя depth map или vertexes можно восстановить трёхмерные координаты пальца относительно камеры

              Скачайте SDK. Можем выслать камеру мы еще до пятницы на «потестить». Мои контакты есть на сайте hackday.ru/events/hackday-25/contacts

              • +1
                Осилил таки вэбинар по Intel Perceptual SDK, с жестами как я и предполагал все сводится только к gesture recognition на плоскости(в том смысле, что алгоритмы связанные с руками из SDK в принципе воспроизводимы и на обычной RGB камере), depthMap там по больше части для отсечения бэкграунда используется. Жесты получаются не очень интуитивными при таком подходе(проверял на своей поделке, раннюю версию которой на хабре описывал). Если эту задачу решать как задачу оптимизации, то можно более интересные результаты получить(правда, возможно пришлось-бы поднапрячь и GPU-вычислитель).

                Да я пока не надумал в конкурсе участвовать(писать Perceptual Злые Птички как-то не серьезно), а вот железку купил-бы на поиграться, но что-то в продаже их нету.

        Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

        Самое читаемое