Діпфейки продовжують захоплювати інтернет та періодично спричиняти гучні скандали, як, наприклад, фейкове порновідео з обличчям Тейлор Свіфт. Це відео, аудіо та зображення, створені за допомогою штучного інтелекту або інших технологій так, щоб здаватися реальними.
Діпфейки, з одного боку, часто сприймаються як меми. З іншого — несуть потенційну загрозу як окремим людям, так і суспільству загалом. розповідає найцікавіше із матеріалу Speka про діпфейки.
Діпфейки: від мемних до шокуючих
Діпфейки можна класифікувати за типом файлів. Це можуть бути:
- Частково або повністю змінені фото.
- Відео з накладенням несправжньої промови або заміною обличчя.
- Підроблені аудіозаписи та телефонні розмови.
- Текстові документи.
В інтернеті часто можна зустріти відеодіпфейки з політиками, у яких начебто справжні Володимир Зеленський або Джо Байден говорять нісенітниці. При цьому фейкові аудіодоріжки імітують реальні голоси, а слова синхронізовані з мімікою (ліпсинк), яка також змінюється за допомогою ШІ.
Діпфейк голівудського актора Моргана Фрімана, який важко відрізнити від реальності
Цікавий кейс стався у червні 2022 року, коли мери Берліна та Мадрида попалися на діпфейк Віталія Кличка. Невідомий чоловік надіслав їм запрошення у Zoom і деякий час вів із ними бесіду, видаючи себе за мера Києва за допомогою діпфейк-відео.
В окрему категорію варто винести порнодіпфейки, зокрема фотографії, роздягнені за допомогою ШІ, або ж відео непристойного змісту нібито за участі реальної людини. Саме це сталося, коли діпфейк такого кшталту з обличчям Тейлор Свіфт завірусився у соцмережі X.
Як діпфейки стають зброєю рф
Центр протидії дезінформації неодноразово попереджав, що росія може використовувати діпфейки під час ІПСО. Ворожа пропаганда поширювала у TikTok діпфейки з головнокомандувачем Валерієм Залужним, який нібито закликав боротися проти «злочинної влади».
Невдалий діпфейк капітуляції Володимира Зеленського на початку війни
Наприклад, країна-агресор може вдатися до фабрикування діпфейків за участі військових та полонених, щоб звинуватити Україну у військових злочинах, яких не скоювала.
А порнодіпфейки становлять найбільшу загрозу для жінок, які найчастіше стають їхніми жертвами. Зловмисники використовують їх для психологічного тиску чи залякування, а для селебріті це ще й репутаційні ризики чи втрати.
Як регулюватиметься ШІ в Україні
Наприкінці 2023 року Мінцифри представило дорожню мапу щодо регулювання штучного інтелекту.
Як наголошує керівник практики ШІ в Juscutum Петро Білик, ці законодавчі норми запрацюють не раніше 2027 року: нам потрібно зважати на акт, який ухвалять в ЄС, а також пройти перехідний період. Проте уряд уже готує деякі рекомендації щодо поводження із ШІ для різних секторів — медицини, юриспруденції тощо.
Експерт додав, що законодавчий контроль будуть застосовувати до ШІ-технологій з високим ступенем ризику, зокрема до програм для заміни голосу або облич. А більш безпечні ШІ-стартапи, наприклад, для перевірки граматики, регулюватися не будуть.
Як боротись з діпфейками
Як би не парадоксально це не звучало, але найбільш ефективним способом боротьби з ШІ-діпфейками є штучний інтелект. Одночасно з новими програмами для створення діпфейків з’являється і софт для боротьби з ними на основі ШІ.
Наприклад, Microsoft розробив Video Authenticator, який виявляє на відео ознаки підробки, непомітні для людського ока: вицвітання, елементи сірого та межі.