Активне використання DeepFake-інструментів викликає необхідність їхнього регулювання.
DeepNostalgia: як сервіс MyHeritage хоче оживити вашу прабабусю
Нещодавно генеалогічний онлайн-сервіс MyHeritage, призначений для створення та дослідження своєї сімейної історії та генеалогії, запустив спеціальний проєкт під назвою DeepNostalgia. Його суть полягає в створенні анімаційних ефектів для зображень зі старих фотографій.
За допомогою цього проєкту можна розмістити на сайті старе фото, а сервіс «оживить» його. За допомогою DeepNostalgia зображення отримує міміку — людина на світлині може повернути голову, підморгнути та навіть посміхнутися. У компанії відзначають, що мета запуску цієї функції — «повернути до життя улюблених предків».
Для запуску свого проєкту DeepNostalgia компанія MyHeritage використовувала технологію компанії D-ID, створену колишніми співробітниками ізраїльських спецслужб. Поки що додавання голосу до фотографій не передбачено, але не виключено, що ця функція може стати наступною для MyHeritage. Кожен користувач мережі отримав можливість безкоштовно «оживити» п'ять фото, для тих, кому потрібно попрацювати з великою кількістю знімків, потрібна реєстрація та перехід на платний акаунт.
Сервіс не залишив байдужим інтернет-аудиторію, і багато користувачів почали масово оживляти не тільки світлини своїх родичів, а й відомих людей. Багато розміщували результати в Twitter, супроводжуючи свої пости хештегом #DeepNostalgia.
Через цей хештег можна знайти відтворених Леніна, Наполеона, Лінкольна, Чарльза Діккенса і навіть Мону Лізу.
Сервіс DeepNostalgia викликав неоднозначну реакцію серед користувачів мережі. Були ті, хто вважав цю функцію «чарівною», але були і ті, хто назвав її «жахливою», — цитує представників MyHeritage видання Guardian.
Що спільного у DeepFake та DeepNostalgia
Інструмент DeepNostalgia багато в чому нагадує DeepFake-відео. Присутність у назві DeepNostalgia слова Deep (глибинний) дозволяє припустити, що в DeepNostalgia використовувалися елементи глибинного навчання.
Таку назву отримали спеціальні методи машинного навчання, здатні вирішувати складні завдання, зокрема, використовувані при розпізнаванні образів і мови, в машинному зорі та інших складних завданнях, для яких неможливо побудувати простий алгоритм вирішення.
Назва DeepFake, яке теж використовує слово Deep, означає технологію створення глибинних фейків або глибинних підробок. Суть таких фейків полягає в тому, що за допомогою спеціальних інструментів можна створити реалістичну відеопідробку зі звуковим рядом.
Такі інструменти дозволяють вкласти в уста жертви DeepFake-відео практично будь-який текст, забезпечивши при цьому достовірну артикуляцію, міміку та рухи. Іншими словами, завдяки DeepFake-відео фраза «не вір очам своїм» стає якомога більш точною.
Уже давно існують DeepFake-відео з
- Бараком Обамою
- Дональдом Трампом
- Марком Цукербергом
А зовсім свіжий DeepFake — різдвяне привітання від імені королеви Єлизавети II:
Правда, воно було записано для того, щоб привернути увагу громадськості до проблем DeepFake-відео.
Масовий DeepFake
Діпфейки проникли в різні соцмережі та використовуються для різних цілей, часто безкарно. Прикладом можна назвати TikTok-акаунт, в якому розміщують DeepFake-відео з Томом Крузом. Акаунт, що створений кілька тижнів тому, вже набрав понад 790 тис. передплатників, а його відео — більш 2,3 млн лайків. Точність відео з Томом Крузом настільки висока, що відрізнити його від оригінальних практично неможливо.
Бувають випадки використання DeepFake-відео з померлими людьми в рекламних цілях. Наприклад, на початку року іспанський виробник пива, компанія Cruzcampo випустила рекламне відео, в якому фігурувала вже померла співачка Лола Флорес. Компанія докладно розповіла, як це відео було зроблено, зокрема, що для нього було використано понад 5 тис. фотографій співачки та фрагменти голосу, які також використовувалися в відео.
Також у січні цього року південнокорейський телеканал SBS представив шоу, в якому штучний інтелект оживив голос померлого ще в 1996 році виконавця Кім Кван Сока та навіть записав нову пісню з його голосом.
Ця пісня стала демонстрацією можливостей стартапу Supertone, який за допомогою цієї ж технології не тільки відновив голос Фредді Меркьюрі, а й записав пісню з його голосом корейською мовою.
У жовтні минулого року в рекламному відео, яке закликає посилити контроль над обігом зброї, був використаний образ Хоакіна Олівера (Joaquin Oliver), жертви масової стрілянини в одній з американських шкіл.
У цьому разі згоду на використання образу юнака дали його батьки, які пояснюють своє рішення на початку ролика. Хоча саме відео викликало більше негативних реакцій та коментарів у користувачів — у ролика наразі менше тисячі «лайків» і понад 3 тис. «дизлайків». Коментатори назвали відео лякаючим, моторошним і нездоровим.
Законодавчі обмеження
Одна з причин масового використання технологій на базі DeepFake пов'язана з тим, що такі інструменти стали доступними практично кожному. Наприклад, видання Guardian нагадує, що його журналістський експеримент зі створення 15-секундного відео з Терезою Мей та Маргарет Тетчер три роки тому зажадав декількох годин роботи вельми потужного комп'ютера.
Такий комп'ютер був потрібен, щоб генерувати та аналізувати нейромережі, необхідні для глибинного навчання та створення DeepFake-відео. Сьогодні, завдяки інструментам від MyHeritage, кожен охочий безкоштовно або за невеликі гроші може створити DeepFake-відео на основі будь-якої фотографії.
Масовість DeepFake та використання таких роликів із різними цілями, зокрема для обману виборців, привели до появи заборон цієї технології.
Наприклад, американські штати Техас і Каліфорнія заборонили створювати та поширювати DeepFake-відео з політиками в період за 60 днів до будь-яких виборів. А другий закон, ухвалений у 2019 році, дає право людям подавати в суд на творців DeepFake-відео порнографічного змісту.
До речі, саме DeepFake-порно є одним із найпопулярніших напрямків технології глибинних підробок. У штаті Віргінія поширення DeepFake-порно з лютого 2019 року вважається кримінальним злочином.
У Китаї публікація DeepFake-відео розцінюється як кримінальний злочин, а розміщення таких відео повинно супроводжуватися спеціальною позначкою про те, що таке відео — це фейк.
DeepFake-загрози
Простий доступ до створення DeepFake-інструментів несе загрози різного типу, і серед них — не тільки поширення фейкових новин.
Наприклад, уже в 2021 році українська кіберполіція розповіла про злочинне угруповання колекторів, які займалися шантажем своїх жертв, зокрема, погрожуючи створювати з їхньою участю DeepFake-порно та розсилати близьким і знайомим. Це один із перших виявлених в Україні випадків використання DeepFake-порно зі злочинною метою.
Масова доступність DeepFake-інструментів може стати проблемою і в інших сферах, наприклад, DeepFake-аудіо дозволяють обманом вимагати гроші. У 2019 році було зафіксовано кілька випадків, коли злочинцям удалося переконати керівників компаній перевести зловмисникам на фіктивний рахунок сотні тисяч доларів.
Додатковою проблемою DeepFake-відео і роликів, створених за допомогою штучного інтелекту, є авторські права — кому належить право на пісню, записану за допомогою згенерованого голосу, наприклад, Фредді Мерк'юрі — зрозуміти складно, так само як і те, хто в цьому випадку отримуватиме роялті, якщо такі твори почнуть приносити гроші.
Але найбільші проблеми поширення DeepFake — етичного характеру. Наскільки допустимо використовувати зображення або голос померлого, по суті, без його згоди? Хто повинен давати згоду на такі маніпуляції та де та межа, за якою прийнятне перетворюється в неприпустиме або навіть у заборонене?
У вересні минулого року організація ЮНЕСКО випустила проєкт «Рекомендації з етики штучного інтелекту». Ймовірно, він стане початком глобального регулювання таких технологій, як DeepFake. А їхня масовість і використання для різних цілей, зокрема, злочинних, робить таке регулювання обов'язковим.
Інакше ми ризикуємо опинитися в інтернеті, захопленим DeepFake-роликами, на тлі яких проєкт MyHeritage виявиться дитячим лепетом.