Активное использование DeepFake-инструментов вызывает необходимость их регулирования.
DeepNostalgia: как сервис MyHeritage хочет оживить вашу прабабушку
Недавно генеалогический онлайн-сервис MyHeritage, предназначенный для создания и исследования своей семейной истории и генеалогии, запустил специальный проект под названием DeepNostalgia. Его суть состоит в создании анимационных эффектов для изображений со старых фотографий.
С помощью этого проекта можно разместить на сайте старое фото, а сервис «оживит» его. С помощью DeepNostalgia изображение получает мимику — человек на фото может повернуть голову, подмигнуть и даже улыбнуться. В компании отмечают, что цель запуска этой функции – «вернуть к жизни любимых предков».
Для запуска своего проекта DeepNostalgia компания MyHeritage использовала технологию компании D-ID, созданную бывшими сотрудниками израильских спецслужб. Пока добавление голоса к фотографиям не предусмотрено, но не исключено, что эта функция может стать следующей для MyHeritage. Каждый пользователь сети получил возможность бесплатно «оживить» пять фотографий, для тех, кому нужно поработать с большим числом снимков, требуется регистрация и переход на платный аккаунт.
Сервис не оставил равнодушным интернет-аудиторию, и многие пользователи начали массово оживлять не только фотографии своих родственников, но и известных людей. Многие размещали результаты в Twitter, сопровождая свои посты хештегом #DeepNostalgia.
По этому хештегу можно найти оживших Ленина, Наполеона, Линкольна, Чарльза Диккенса и даже Мону Лизу.
Сервис DeepNostalgia вызвал неоднозначную реакцию среди пользователей сети. Были те, кто считал эту функцию «волшебной», но были и те, которые назвали ее «жуткой», — цитирует представителей MyHeritage издание Guardian.
Что общего у DeepFake и DeepNostalgia
Инструмент DeepNostalgia во многом напоминает DeepFake-видео. Присутствие в названии DeepNostalgia слова Deep (глубинный) позволяет предположить, что в DeepNostalgia использовались элементы глубинного обучения.
Такое название получили специальные методы машинного обучения, способные решать сложные задачи, в частности, используемые при распознавании образов и речи, в машинном зрении и других сложных задачах, для которых невозможно построить простой алгоритм решения.
Название DeepFake, тоже использующее слово Deep, означает технологию создания глубинных фейков или глубинных подделок. Суть таких фейков состоит в том, что с помощью специальных инструментов можно создать реалистичную видеоподделку со звуковым рядом.
Такие инструменты позволяют вложить в уста жертвы DeepFake-видео практически любой текст, обеспечив при этом достоверную артикуляцию, мимику и движения. Иными словами, благодаря DeepFake-видео фраза «не верь глазам своим» становится как нельзя более точной.
Уже давно существуют DeepFake-видео с
- Бараком Обамой
- Дональдом Трампом
- Марком Цукербергом
А совсем свежий DeepFake – рождественское поздравление от имени королевы Елизаветы II:
Правда, оно было записано для того, чтобы привлечь внимание общественности к проблемам DeepFake-видео.
Массовый DeepFake
Дипфейки проникли в разные соцсети и используются для разных целей, часто безнаказанно. Примером можно назвать TikTok-аккаунт, в котором размещают DeepFake-видео с Томом Крузом. Аккаунт, созданный несколько недель назад, уже набрал более 790 тыс. подписчиков, а его видео – более 2,3 млн лайков. Точность видео с Томом Крузом настолько высока, что отличить его от оригинальных практически невозможно.
Бывают случаи использования DeepFake-видео с умершими людьми в рекламных целях. Например, в начале года испанский производитель пива, компания Cruzcampo выпустила рекламное видео, в котором фигурировала уже умершая певица Лола Флорес. Компания подробно рассказала, как это видео было сделано, в частности, что для него применили более 5 тыс. фотографий певицы и фрагменты голоса, которые также использовались в видео.
В январе этого года южнокорейский телеканал SBS представил шоу, в котором искусственный интеллект оживил голос умершего еще в 1996 году исполнителя Ким Кван Сока и даже записал новую песню с его голосом.
Эта песня стала демонстрацией возможностей стартапа Supertone, который с помощью этой же технологии не только восстановил голос Фредди Меркьюри, но и записал песню с его голосом на корейском языке.
В октябре прошлого года в рекламном видео, призывающим усилить контроль над оборотом оружия, был использован образ Хоакина Оливера (Joaquin Oliver), жертвы массовой стрельбы в одной из американских школ.
В этом случае согласие на использование образа юноши дали его родители, которые поясняют свое решение в начале ролика. Хотя само видео вызвало больше негативных реакций и комментариев у пользователей – у ролика на данный момент менее тысячи «лайков» и более 3 тыс. «дизлайков». Комментаторы назвали видео пугающим, жутким и нездоровым.
Законодательные ограничения
Одна из причин массового использования технологий на базе DeepFake связана с тем, что такие инструменты стали доступны практически каждому. Например, издание Guardian напоминает, что его журналистский эксперимент по созданию 15-секундного видео с Терезой Мэй и Маргарет Тетчер три года назад потребовал нескольких часов работы весьма мощного компьютера.
Такой компьютер был нужен, чтобы генерировать и анализировать нейросети, необходимые для глубинного обучения и создания DeepFake-видео. Сегодня, благодаря инструментам от MyHeritage, каждый желающий бесплатно или за небольшие деньги может создать DeepFake-видео на основе любой фотографии.
Массовость DeepFake и использование таких роликов с разными целями, в том числе для обмана избирателей, привели к появлению запретов этой технологии.
Например, американские штаты Техас и Калифорния запретили создавать и распространять DeepFake-видео с политиками в период за 60 дней до любых выборов. А второй закон, принятый в 2019 году, дает право людям подавать в суд на создателей DeepFake-видео порнографического содержания.
Кстати, именно DeepFake-порно является одним из самых популярных направлений технологии глубинных подделок. В штате Виргиния распространение DeepFake-порно с февраля 2019 года считается уголовным преступлением.
В Китае публикация DeepFake-видео расценивается как уголовное преступление, а размещение таких видео должно сопровождаться специальной пометкой о том, что такое видео — это фейк.
DeepFake-угрозы
Простой доступ к созданию DeepFake-инструментов несет угрозы разного типа, и среди них – не только распространение фейковых новостей.
Например, уже в 2021 году украинская киберполиция рассказала о преступной группировке коллекторов, которые занимались шантажом своих жертв, в том числе, угрожая создавать с их участием DeepFake-порно и рассылать близким и знакомым. Это один из первых выявленных в Украине случаев использования DeepFake-порно с преступной целью.
Массовая доступность DeepFake-инструментов может стать проблемой и в других сферах, например, DeepFake-аудио позволяют обманом вымогать деньги. В 2019 году было зафиксировано несколько случаев, когда преступникам удалось убедить руководителей компаний перевести злоумышленникам на фиктивный счет сотни тысяч долларов.
Дополнительной проблемой DeepFake-видео и роликов, созданных с помощью искусственного интеллекта, являются авторские права – кому принадлежит право на песню, записанную с помощью сгенерированного голоса, например, Фредди Меркьюри – понять сложно, равно как и то, кто в этом случае будет получать роялти, если такие произведения начнут приносить деньги.
Но наибольшие проблемы распространение DeepFake – этического характера. Насколько допустимо использовать изображения или голос умершего, по сути, без его согласия? Кто должен давать согласие на такие манипуляции и где та грань, за которой приемлемое превращается в недопустимое или даже в запрещенное?
В сентябре прошлого года организация ЮНЕСКО выпустила проект «Рекомендации по этике искусственного интеллекта». Вероятно, он станет началом глобального регулирования таких технологий, как DeepFake. А их массовость и использование для разных целей, в том числе преступных, делает такое регулирование обязательным.
В противном случае мы рискуем оказаться в интернете, захваченным DeepFake-роликами, на фоне которых проект MyHeritage окажется детским лепетом.