Пользователь Reddit под ником DeepFakes научил нейросети создавать интимные ролики со звездами

    Правило 34


    Пользователь Reddit под ником DeepFakes научил нейросети создавать интимные ролики со звездами. Его жертвами уже стали: Эмма Уотсон, Мейси Уильямс, Скарлетт Йоханссон, Галь Гадот.

    Для создавая подобных видео были использованы алгоритмы машинного обучения такие как TensorFlow, которые Google бесплатно предоставляет исследователям, аспирантам и всем, кто интересуется машинным обучением, а также материалы из открытого доступа.

    С первого взгляда кажется правдоподобным, но на видео наблюдаются артефакты лицо не отслеживается правильно, хотя распознать фэйк не искушенному зрителю будет сложно.

    image

    Большой брат


    Как инструменты Adobe, которые могут заставить людей говорить что-либо, и алгоритм Face2Face, который может подменять лица в режиме реального времени, этот новый тип поддельного видео показывает, что человечество находимся на грани, где легко создать правдоподобные видеоролики о том чего мы никогда не делали.

    В руках спецслужб уже FindFace который позволяет найти любого человека хоть раз попавшего в объектив видеокамеры. Представьте, что можно реализовать с таким инструментом. Удаление с видео в реальном времени различных компромата или наоборот создать его. Подмена улик в прямом эфире.

    Оригинал: AI-Assisted Fake Porn Is Here and We’re All Fucked
    Поделиться публикацией
    AdBlock похитил этот баннер, но баннеры не зубы — отрастут

    Подробнее
    Реклама
    Комментарии 63
    • +19
      Что-то статья запоздала. Тестовые видео он уже давно выкладывал, а пару дней назад вот еще и пост на реддите с готовыми прогами для обучения и монтажа видео
      www.reddit.com/r/deepfakes/comments/7ox5vn/fakeapp_a_desktop_tool_for_creating_deepfakes

      Порно как всегда двигает прогресс :)
      • –18
        Позвольте я сокращу. Порно — двигатель прогресса.
        По поводу статьи. Автор, ты немного опоздал. Зачем тормошить прошлое?
        • +12

          … пошлое

          • +1
            VHS, Blu-Ray — победили благодаря порноиндустрии.
        • –7
          Новость хорошая и печальная одновременно. Скоро ГИБДД научится подделывать видео с нарушениями, а нечестные опера вместо наркоты будут «находить» и показывать видео как жертва вымогательства грабит банк или убивает кого-то.
          • +3

            Всё это можно делать в ручную. И десять лет назад можно было.

            • 0
              Ну я имел в виду что скоро ДАЖЕ ГИБДД научится подделывать
            • +6
              Generation „П“ читали? Ваши опасения продвинули значительно дальше, и значительно раньше. Минимум лет 18 назад. (только одноименный фильм смотреть не рекомендую)
              • +2
                В фильме «Бегущий человек» с Шварценеггером это показали ещё раньше, в 1987-м
                • 0
                  Там, правда, был всего лишь монтаж, но сам принцип заложен уже давно.
                  • 0

                    Да, но "Бегущий человек" — фантастика.

                    • 0

                      По современным меркам там нет чего-то особо фантастичного, а если книгу прочитать там ещё ближе к жизни.

                      • +3
                        Фантастикой он был 30 лет назад
                    • +3
                      А мне фильмец тоже доставляет некое наслаждение. И актёры неплохие и подходящие под этот контекст, и снято вроде с пониманием мира.
                      Я вот жду, когда выйдет «Empire V».
                  • 0
                    Вспоминается какой-то фильм в Арнольдом Шварценеггером. Там тоже на ТВ поддельное видео с его убийством делали.
                    • +1
                      Бегущий человек же (https://ru.wikipedia.org/wiki/%D0%91%D0%B5%D0%B3%D1%83%D1%89%D0%B8%D0%B9_%D1%87%D0%B5%D0%BB%D0%BE%D0%B2%D0%B5%D0%BA_(%D1%84%D0%B8%D0%BB%D1%8C%D0%BC))
                      • +1
                        «Бегущий человек», 1987
                      • –6
                        «обучением а так же» — перед «а» всегда запятая!
                        • –2
                          А как же «а» в н,ач,але предложения?
                          • 0
                            Спасибо поправил.
                          • +4
                            А что, хорошая тема — сразу скрывать своё лицо от камер.
                            gits
                            image
                            • +12
                              А где можно посмотреть готовые примеры работы нейросети, например, со Скарлетт Йоханссон? Друг спрашивает.
                            • 0
                              Ссылки в студию!
                            • 0
                              ИМХО, новость одновременно и интересная и пугающая: с одной стороны это реально интересно, с другой — при должном знании и умении можно такого наделать…
                              • +5

                                "При должном знании и умении" можно было наделать всякого задолго до появления deepfakes и более качественно, чем это делает deepfakes.
                                Тут особенность именно в том, что теперь это можно делать без особых знаний и умений.

                                • 0
                                  С другой стороны, теперь и на реальный компромат можно сказать, что это подделка и это был не я.
                                  • +2
                                    И это очень хорошо, КМК.
                                • 0
                                  А инструмент получается обоюдоострый, может помочь к примеру в киноиндустрии. А может и человека уничтожить.
                                  • +1
                                    Не может уничтожить. Существование инструмента сводит на нет попытыки его использовать.
                                    Печально то, что это уничтожит видео как возможное доказательство. Сейчас камеры на улицах стали сдерживающим фактором для преступников. А с развитием этой технологии перестанут.
                                    • +5
                                      Преступникам это мало поможет, так как даже если видео перестанет быть прямым доказательством, то зная кто это сделал, можно найти другие улики, от которых уже будет не отвертется.
                                      • +1
                                        Значит будет повод ещё надёжнее защищать устройства хранения этого видео.
                                        • 0
                                          И в чём толк хранить видео?
                                          • +1
                                            Если при этом еще и хранить в другом месте данные, которые позволят проверить, был ли изменен файл… Задача проверить «реально ли видео с камеры X?» становится элементарной.
                                            • 0
                                              Для кого? Думаю, речь шла об использовании видео как доказательства в суде, к примеру.
                                              • 0
                                                Как доказательство в суде — с муниципальных камер скорее всего будут по умолчанию считаться подлинными, возможно с хранением метаданных на другом сервере для проверки. Камеры дома и в организациях, скорее всего, тоже придется допиливать. Но думаю софтом все решится.
                                                • +1
                                                  Думаю, до правки видео онлайн один шаг, и станет невозможно доказать, что видео было снято напрямую, а не было подделано по дороге, вместе с метаданными.
                                                  Софту тут я бы вообще не стал доверять. Возможно, будут закрытые как со стороны ПО, так и со стороны железа камеры, которые тут же сливают всё видео на серверы разработчика или государственные. К сожалению, это не совместимо с открытыми и свободными технологиями, и их адепты, в том числе и я, останемся без возможности доказать аутентичность своего же видео (
                                                  • 0
                                                    Государство свои камеры будет сертифицировать и там не будет никакой правки онлайн. Примерно как вы и написали. Записан файл -> записан хэш.

                                                    Открытые и свободные технологии государство и так использует… Редко. А как частники — вы что-нибудь придумаете, я уверен.
                                      • 0
                                        А может и человека уничтожить.

                                        Надеюсь, с распространением и совершенствованием подобных инструментов истории про вымогательство посредством интим-фото, или там самоубийствах после обнародования их перестанут существовать как класс.
                                      • +1
                                        Не всё так просто.
                                        При серьёзном подходе ранее рассматривался простой параметр — зернистость фото-киноплёнки. Этот момент не старались подделывать — сложновато, а с киноплёнкой вообще крайне сложно, поскольку искусственность подделки выявлялась ещё проще, чем с отдельным фотоизображением. Соответствующего софта весьма много было разработано.
                                        Нечто аналогичное есть и сейчас в мире цифрового фото и кино.
                                        Что-же до создания «с нуля» чисто цифровыми методами, то искусственность просто бьёт в глаза отсутствием базовых элементов, обязательных для используемой съёмочной техники.
                                        Ссылка на статью обзорную не прошла. Яндекс по запросу «программы для выявления фотомонтажа» покажет много интересного.
                                        • –2
                                          Скоро фраза «я @*** твою мать» приобретёт немного другой смысл… С пруфами.
                                          • –5
                                            Лет через 5 на каждую девушку в школе (которой больше 18, естественно)\институте всякие извращенцы будут выкладывать в сеть псевдоинтимное видео. И на коллег по работе тоже. И на соседку с пятого этажа… Как же это будет клё… ой, мерзко! Это недопустимо!
                                            • +5

                                              И это будет так же "интересно", как и создавать анимированную какашку на последнем Айфоне. Нафиг никому не надо, один раз проигрался и забыл.

                                              • –1
                                                Ага, «по одному разу на девушку». Если вы понимаете, о чём я.
                                                • +2

                                                  Разве что для личного "пользования", вряд ли такой контент подойдёт для компрометации, всерьез мало кто воспримет с такими то технологиями.

                                              • +1
                                                В этом случае, как и в любом другом, проблема не в инструменте, а в том, кто и как его использует.
                                                Собственно, из оригинальной же статьи:

                                                Every technology can be used with bad motivations, and it's impossible to stop that… Ethically, the implications are “huge,” Champandard said. Malicious use of technology often can’t be avoided, but it can be countered.
                                              • +2
                                                Теперь даже если актёры сольют в Интернет своё хоум видео, то смогут списать на фейк.
                                                • +2
                                                  Как отметили комментаторы в одном паблике, теперь появится много «компромата» на училок старших классов.
                                                  • 0
                                                    Как на счёт заглянуть в потенциальные возможности применения технологии?
                                                    • Видеоидентичность личности по лицу исказится.
                                                    • Ревнивым мужьям и жёнам придется не сладко.
                                                    • Желтая пресса процветает на этой технологии.
                                                    • Появится платный сервис гляньте, я со звездой на вечеринке «пою».
                                                    • Можно будет запустить свой youtube-канал новостей с известными ведущими первых каналов, которые рассказывают про твою тему. Блокчейн или форекс, например, чтобы влиять на рынки, без последствий. ))
                                                    • К Детям применима история из сказки: … сделала голос (лицо) как у мамы Козы… И попросила....
                                                    • Неграмотным бандитам можно будет фабриковать видео их главарей о сдаче властям.
                                                    • Вишенка на торте: Президент страны с боевой мощью может не знать, что он обратился в новостях на всю страну с предложением очистить родину от врага.
                                                    • +1
                                                      Как уже написали выше, сам факт наличия возможности легко создать подобный фейк сводит на нет весь эффект от его создания.
                                                      • 0

                                                        В равновесии, когда все успеют привыкнуть вообще и осознать конкретный фэйк. А в реальной неравновесной жизни даже на фальшивые текстовые сайты пригодны для некоторых перечисленных пунктов, не то что видео.

                                                      • 0
                                                        Как только случится первый такой случай — об этом объявят все каналы и все Интернеты. Будут обсуждать, что мир фейков теперь окружает нас.
                                                        Больше выгоды получит порноиндустрия (можно выбирать актрис только по фигуре, не по лицу) и киноиндустрия — зловещая долина почти побеждена, можно качественнее оживлять Брюса Ли, Лею и Таркина, Высоцкого…
                                                      • 0
                                                        del
                                                        • +1
                                                          Сколько же зануд в комментах
                                                          • +1
                                                            Это единственные порноролики, на просмотре которых все пялились на лицо актрисы. )
                                                            • 0
                                                              bash.im/quote/391101
                                                              судя по новости, он писал сценарий для нейросети: )
                                                              • 0
                                                                :(
                                                                • 0

                                                                  8 месяцев назад я предполагал что к этому всё и идёт: Прочитав статью на гиктаймсе https://geektimes.ru/post/288810/ (про распознавание лиц), и заценив приложение FaceApp я понял куда ведут и приведут нас подобные технологии дальше. Кто ещё не вицел — приложение FaceApp позволяет на хмуром лице изобразить улыбку (с помощью специально обученных нейросетей) да ещё так качественно и быстро, что мастера фотошопа позавидуют. Но одними лицами и улыбками дело же явно не ограничится. Следующим шагом будет распознавание Зд модели тела человека по стопке фотографий. Лицо для улыбки было ничем не закрыто, распознавание тела тоже будут первое время проводить на подборках фоток обнажённых девушек, благо этого добра в инете немало. Затем научат нейросеть удалять мелкие элементы одежды с тела девушек (я про купальники
                                                                  и носки), для обучения этому делу в инете есть подборки фоток, где девушки постепенно снимают одежду. Следующий шаг — это по фоткам человека, одетого в не слишком сво60дную одежду, определять форму тела и позу. Имея форму тела и позу — можно тут же отрендерить как этот человек выглядит без одежды и поместить новое изображение человека на исходную фотку. Вот он, настоящий «раздевающий сканер». Назовём пока такой софт «ню-софтом».


                                                                  Сложности, конечно, будут, но преодолимые:


                                                                  1. Волосы. Их трудно распознавать, моделировать и рендерить. На первое время проще будет работать с лысыми актёрами, а также с теми актрисами, у которых короткая стрижка.
                                                                  2. Освещение сцены. Надо будет вычислять источники освещения сцены (их координаты, цвет и яркость).
                                                                  3. Удаление артефактов – надо будет удалять на исходной фотке или на видеокадре остатки одежды по краям изображения человека (в одежде человек больше по площади на изображении, чем без одежды).
                                                                  4. Физика и биология. При движениях у человека, бывает, колышутся разные выступающие части тела, и напрягаются мышцы при поднятии тяжестей, при борьбе с кем-либо и т.п. Всё это надо уметь распознавать с исходной фотки или кадра и эмулировать в 3д модели перед рендерингом.
                                                                  5. Одежда. Если вы решите не раздеть человека на фотке или видюшке, а переодеть, или решите в фильме заменить актёра, оставив одежду прежнего актёра, то нужно эмулировать физику одежды и потом рендерить её, что увеличит время обработки.

                                                                  Рано или поздно ню-софт напишут, отладят, обучат и дадут людям попользоваться. Применять всё это будут двумя путями:


                                                                  • раздевать всех подряд на фотках и видюшках. Мало кто удержится посмотреть как выглядит интересующий его человек или актёр без одежды. Можно будет любой фильм превратить в эротический,
                                                                  • будут скачивать базы с 3д моделями известных актёров и заменять в фильмах одних актёров на других. Например, выйдет фильм «Матрица» с негром, а вы туда старого доброго Нео засандалите, если он вам больше нравится. Технология изменения голоса тоже уже имеется и тоже, надеюсь, будет развиваться дальше. В принципе, может кто и самого себя отправит играть главную роль в любимом фильме.

                                                                  С морально-этической точки зрения интересно как изменится мир, если каждый будет знать, что его в любой момент могут «раздеть по фотке» и выложить в инет. И никто от раздевания не будет застрахован — ни политики, ни чиновники, ни стар ни млад. Даже если запретить такой софт — всё равно ж он просочится на торренты.


                                                                  Насчёт «стар и млад» — надеюсь в инете мало фоток слишком молодых и слишком старых людей, поэтому учить нейросети будут на приемлимых возрастах.


                                                                  Возможно, некоторые звёзды шоубизнеса и актрисы сами будут выкладывать ню фотки в инет, а потом валить всё на ню-софт.


                                                                  По срокам – думаю в течении ближайших лет десяти подобный ню-софт напишут, на радость эротоманам. Сейчас быстродействия персоналок маловато для фотореалистичного рендеринга людей (это видно по Зд играм «для взрослых» — слишком мультяшные там модели).

                                                                  • 0
                                                                    В руках спецслужб уже FindFace который позволяет найти любого человека хоть раз попавшего в объектив видеокамеры. Представьте, что можно реализовать с таким инструментом.

                                                                    Quis custodiet ipsos custodes? или в Реконизме спасенье, друзья.
                                                                    • 0
                                                                      Уверен, что спецслужбы будут юзать спокойно, и потом доказывай, что ты не верблюд.
                                                                      • 0
                                                                        Уверен, такое же видео с лицами прокурора и судьи будут показательным доказательством. Правда со второго раза, первого посадят за подделку улик (

                                                                      Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.