Facebook Pixel

Голос як частина цифрової ідентичності. Як захиститися від клонування ШІ

Дар’я Нечепуренко
Юристка практики технологій та інвестицій в Juscutum

Штучний інтелект стрімко змінює спосіб створення контенту, і однією з найбільш дискусійних технологій останніх років стало клонування голосу (voice cloning). Сьогодні такі технології використовуються у музиці, кіно, медіа та цифрових продуктах, але водночас відкривають нові можливості для зловживань — від несанкціонованого використання голосу до шахрайства та маніпуляцій інформацією.

Законодавство формувалося в умовах, коли імітація голосу була можлива лише на рівні людського наслідування. Сучасні технології дозволяють відтворювати голос майже без відмінностей від оригіналу, що створює нові виклики для захисту творчих результатів, контролю над використанням голосу та цифрової ідентичності людини.

Чому класичних механізмів інтелектуальної власності недостатньо

Клонування голосу — це технологія створення цифрової моделі голосу людини на основі аналізу її мовлення. Алгоритми обробляють аудіозаписи, визначають характерні параметри — тембр, інтонацію, частотні особливості, ритм мовлення — і формують модель, здатну генерувати нове мовлення, яке звучить як голос конкретної людини. Для цього можуть використовуватися як великі масиви записів, так і короткі фрагменти аудіо. У результаті можна створювати записи, де людина говорить або співає те, чого вона фактично ніколи не виконувала.

Саме ця особливість створює найбільше складних питань для інтелектуальної власності. Класичні механізми будувалися навколо зафіксованих результатів творчості — творів, записів виконань, аудіовізуального контенту. Сам голос як фізична характеристика людини окремо не охороняється. У практичному вимірі це означає, що захист поширюється на конкретний запис або твір, але не на тембр, інтонацію, манеру мовлення, акцент та емоційні особливості голосу виконавця. Якщо штучний інтелект створює новий аудіофайл, який лише імітує голос, але не копіює запис, застосування традиційних механізмів значно ускладнюється.

Окрема проблема виникає на етапі навчання моделей. Якщо для створення голосової моделі використовуються записи, захищені авторським правом, постає питання допустимості такого використання без дозволу правовласників. Частина науковців намагається обґрунтовувати це як добросовісне використання, однак єдиної судової позиції наразі не встановлено. Водночас практика показує обережне ставлення судів до використання захищеного контенту для навчання штучного інтелекту.

Клонування голосу також виходить за межі класичних інструментів інтелектуальної власності. Воно зачіпає персональні дані, біометричну інформацію, право людини контролювати комерційне використання свого голосу та питання приватності загалом. Оскільки ці механізми зазвичай регулюються окремо, вони не створюють єдиної системи захисту. Саме тому на практиці дедалі частіше використовують комбінований підхід — ліцензування, договірні обмеження, вимоги до прозорості використання даних і спеціальні правила для синтетичного контенту.

Як сьогодні намагаються захищати голос

Попри відсутність єдиного спеціального режиму захисту голосу, на практиці вже використовується комбінація кількох механізмів. Йдеться не про один універсальний інструмент, а про поєднання авторського права, суміжних прав виконавців, захисту персональних даних, контролю комерційного використання образу і голосу.

У європейській практиці важливим орієнтиром є оцінка того, чи відображає результат творчий внесок автора. Якщо відтворюються елементи, що є результатом творчого вибору, зростає ймовірність претензій. На практиці також застосовується підхід «впізнаваності на слух» — якщо пересічний слухач може впізнати джерело запозичення, ризики відповідальності значно підвищуються.

У США додатково використовується захист через контроль комерційного використання образу і голосу. Саме цей механізм часто застосовують артисти та публічні особи для запобігання несанкціонованому використанню голосу у рекламі, медіа або цифрових продуктах. У частині штатів голос прямо розглядається як біометрична характеристика, що дозволяє також застосовувати норми щодо захисту персональних даних. Поступово формується підхід, за якого використання технологій клонування голосу не забороняється повністю, а переводиться у модель контрольованого використання через ліцензування. Показовим є приклад Метью Мак-Конагей, який зареєстрував звукові торговельні марки, зокрема, на впізнавану голосову фразу, і водночас співпрацює з AI-компаніями у форматі ліцензованого використання голосу.

У музичній індустрії технологія вже формує нові сценарії використання. Зокрема, у соціальних мережах поширювалися синтетичні ремейки відомих пісень, включно з AI-версіями Papaoutai бельгійського виконавця Stromae. Такі випадки показують, що технологія вже дозволяє створювати популярний музичний контент без участі оригінального виконавця, що безпосередньо впливає на економіку творчих індустрій і посилює потребу у чітких правилах використання голосу.

Все більшу роль відіграють договори та ліцензії. Дедалі частіше у контрактах прямо визначають, чи допускається використання голосу для навчання моделей або створення синтетичного контенту. Паралельно формується модель комерціалізації цифрових копій голосу — коли виконавець сам надає дозвіл на використання цифрової моделі свого голосу за винагороду. Саме ліцензування поступово стає одним із ключових інструментів балансування інтересів. Паралельно розвиваються технічні інструменти контролю: цифрові водяні знаки, криптографічне маркування аудіо, системи відстеження походження даних, технології виявлення синтетичного мовлення. Вони не замінюють юридичні механізми, але значно полегшують доведення використання голосу і контроль його поширення.

Ризики використання технологій клонування голосу

Технології клонування голосу створюють ризики не лише для креативних індустрій, а й для фінансової безпеки, приватності та довіри до інформації загалом. Найбільш очевидною загрозою є шахрайство: синтетичні голоси вже використовуються для імітації керівників компаній або представників державних органів з метою отримання коштів чи конфіденційної інформації. Окремою проблемою є інформаційні маніпуляції — синтетичні аудіозаписи можуть створювати враження, що людина робила заяви, яких вона ніколи не здійснювала, що створює ризики для публічних комунікацій, політики та бізнесу.

Для творчих професій ключовим ризиком залишається несанкціоноване комерційне використання голосу. Для акторів, співаків, ведучих або блогерів голос є частиною професійної цінності, тому використання синтетичних копій без згоди може призводити до втрати контрактів і доходів. Паралельно виникають репутаційні ризики — клонований голос може використовуватися у контекстах, які суперечать позиції або публічному образу людини. Додатково зростає значення голосу як біометричної характеристики. Його несанкціоноване відтворення може створювати ризики для систем ідентифікації та доступу до фінансових і цифрових сервісів.

Етичне використання технологій клонування голосу

Разом із розвитком технологій дедалі гостріше постає питання меж їх допустимого використання. Навіть у ситуаціях, коли формального порушення закону немає, використання голосу без реального контролю з боку людини може підривати довіру до цифрового контенту та ставити під сумнів можливість особи контролювати використання власної цифрової ідентичності.

Ключовою умовою відповідального використання є добровільна і усвідомлена згода людини на використання її голосу. Це стосується як публічного використання синтетичного голосу, так і використання аудіоданих для навчання моделей. Не менш важливо забезпечити зрозумілість для користувачів — люди повинні розуміти, коли вони взаємодіють із синтетичним голосом. Саме тому маркування контенту, створеного із застосуванням штучного інтелекту, поступово стає стандартною практикою.

Окреме значення має питання справедливої винагороди. Якщо синтетичний голос використовується для створення комерційного продукту, особа, чий голос став основою для моделі, повинна отримувати компенсацію. Саме на цьому підході поступово формується ринок ліцензування цифрових копій голосу, політики платформ та добровільні правила використання технологій, зокрема у музичній індустрії та сфері озвучення.

Куди рухається регулювання і як розвиватиметься технологія

Підходи до регулювання клонування голосу у світі формуються нерівномірно. Більшість держав поки що не мають окремих норм, які прямо регулюють синтетичне відтворення голосу, тому застосовується комбінація норм із різних сфер — інтелектуальної власності, персональних даних, біометрії та цифрового контенту. Водночас поступово з’являється тенденція до формування більш системного підходу, який охоплює весь життєвий цикл технології — від збору даних для навчання до використання створеного контенту.

У Європейському Союзі системний підхід до регулювання формується через Акт про штучний інтелект (AI Act), який вперше встановлює комплексні вимоги до створення, впровадження та використання систем штучного інтелекту протягом усього життєвого циклу технології — від збору даних до використання кінцевого продукту. Для технологій синтетичного аудіо ключовими є вимоги щодо прозорості використання штучного інтелекту. Зокрема, передбачаються обов’язки інформувати користувачів про взаємодію із системами AI та маркувати контент, створений штучним інтелектом. Для технологій клонування голосу це означає необхідність повідомляти про використання синтетичного голосу та забезпечення можливості відстеження походження даних.

AI Act також посилює вимоги до управління ризиками, якості даних та технічної документації. Провайдери AI-систем повинні впроваджувати системи управління ризиками, забезпечувати контроль джерел навчальних даних, а також здійснювати постмаркетинговий моніторинг роботи систем. Це безпосередньо впливає на використання аудіоданих, включаючи голос як потенційну біометричну характеристику.

Окремо важливим є регулювання моделей загального призначення (GPAI). Воно передбачає вимоги щодо прозорості використаних даних для навчання моделей, а для моделей із системним впливом — додаткові обов’язки щодо управління ризиками. Оскільки такі моделі можуть використовуватися для створення синтетичного мовлення, ці правила фактично формують базову рамку відповідальності для технологій клонування голосу.

Паралельно в окремих країнах ЄС, зокрема в Данії та Нідерландах, обговорюється створення нових суміжних прав, які дозволять людям контролювати використання їхнього голосу та цифрової ідентичності, включаючи можливість захисту особи після смерті. У США регулювання розвивається через законодавство штатів про біометричні дані та право контролю комерційного використання голосу і зовнішності, тоді як у Великій Британії поки застосовується комбінований підхід через суміжні права виконавців, персональні дані та норми проти недобросовісної конкуренції.

Висновок

Клонування голосу вже стало повноцінним фактором цифрової економіки і створює одночасно нові можливості та нові ризики. Найбільші виклики пов’язані з шахрайством, маніпуляціями інформацією, несанкціонованим комерційним використанням голосу та складністю застосування класичних механізмів інтелектуальної власності. Додаткову складність створює те, що ризики виникають як на етапі навчання моделей, так і на етапі створення та використання синтетичного контенту, а відповідальність може розподілятися між користувачами, розробниками і платформами.

Універсального інструменту захисту голосу поки не існує, тому найефективнішими залишаються комбіновані підходи: поєднання інструментів інтелектуальної власності, захисту персональних даних, договірного регулювання та ліцензування. Паралельно формується системніше регулювання, зокрема, через вимоги прозорості використання штучного інтелекту, контроль використання біометричних даних і обов’язкове маркування синтетичного контенту. Подальший розвиток цієї сфери напряму залежатиме від здатності поєднати технологічний розвиток із ефективним контролем використання голосу як елементу цифрової ідентичності.

Подякувати 🎉
The Page Logo
У вас є цікава колонка для The Page?
Пишіть нам: [email protected]