Facebook Pixel
IT

Заглянути в душу. Кому та навіщо потрібні технології розпізнавання емоцій

Фото: Holger Langmaier/Pixabay

Фото: Holger Langmaier/Pixabay

Інструменти розпізнавання емоцій, за словами їхніх розробників, мають допомогти вирішувати конфлікти та запобігати злочинам. Насправді ж точність їхньої роботи викликає запитання у вчених, а можливе поширення — протести правозахисників. Чому?

Право на злість, втому та дратівливість

Героїня епізоду «Я скоро повернуся» (Be Right Back) популярного серіалу «Чорне дзеркало» спробувала створити цифрову копію свого померлого чоловіка та помістила його свідомість у штучне тіло. Однак тривалого й успішного спілкування з цифровим замінником у неї не вийшло, почасти тому, що цифровий двійник був абсолютно слухняний індивідуум і майже не виявляв емоцій. Ці особливості стали на заваді бажання його партнерки побудувати спільне життя. В результаті аватара помістили на горище.

Емоції — це одне з унікальних явищ, яке робить нас живими людьми. Останніми роками психологи та вчені багато говорять і пишуть про емоційний інтелект, вчать його розвивати. Вони ж переконують нас у тому, що поганих емоцій не буває, що людина може та має відчувати смуток, втому та дратівливість: це такі ж емоції, як і спокій, щастя або радість.

Telegram Logo

Розробники інструментів розпізнавання емоцій, які стали популярні в Китаї та почали активно використовуватися в Росії, не говорять про відсутність права на погані емоції. Завдання їхніх продуктів — визначати людські емоції, щоб використовувати цю інформацію, звичайно ж, у чиїхось цілях. Однак у цих інструментів, так само як і в технології загалом, є багато спірних моментів. Серед них — точність їхньої роботи, етичність застосування, відсутність законодавчого регулювання їх використання та конфіденційність даних, що збираються.

Наприклад, розробники системи розпізнавання емоцій Taigusys, популярної в Китаї, не приховують, що їхній продукт може фіксувати та визначати вирази облич співробітників компанії, що використовують її систему, та навіть нещиру посмішку. У компанії стверджують, що система допомагає уникнути конфліктів на робочому місці та поліпшити ефективність праці, наприклад виявити, коли співробітнику потрібна перерва. Серед клієнтів Taigusys — Huawei, China Mobile, China Unicom і PetroChina. Крім того, ці розробки використовуються в китайських в'язницях, і вони, за словами топменеджерів компанії, допомагають ув'язненим залишатися «більш слухняними».

У деяких випадках використання систем розпізнавання емоцій виглядає дивно та навіть небезпечно. Наприклад, дочірній підрозділ компанії Canon у Китаї використовує систему розпізнавання емоцій, яка пропускає всередину офісу тільки усміхнених співробітників. Цю систему в компанії називають інструментом «управління робочим простором».

Хто та для чого розробляє інструменти для розпізнавання емоцій

Автоматизовані системи аналізу емоцій також активно використовують у рекрутингу. Наприклад, компанія HireVue застосовує власні розробки в цій сфері — її система аналізує відеорезюме та відеозаписи співбесід, беручи до уваги міміку, тон голосу та інші дані для оцінювання кандидата. Ще один гравець цього ринку — Pymetrics, розробка якої дає змогу оцінити «когнітивні та емоційні характеристики лише за 25 хвилин».

Свої системи розпізнавання емоцій розробили Amazon, Microsoft і IBM, а Apple у 2016 році купила стартап Emotient — розробника ПЗ для розпізнавання емоцій на фото.

Один із найбільших розробників систем аналізу емоцій — бостонська компанія Affectiva, створена колишніми співробітниками Массачусетського технологічного інституту. Вона створила одну з найбільших у світі баз даних емоцій, що складається з більш ніж 10 млн виразів облич людей із 87 країн, а на основі цих даних побудувала безліч застосунків, що вміють, наприклад, виявляти водіїв, які відволікаються та схильні до ризику на дорогах, або оцінювати емоційну реакцію споживачів на рекламу.

Де ще використовують системи розпізнавання емоцій

Читання та розуміння емоцій людей використовують у різних ситуаціях, іноді зовсім неочевидних. Наприклад, у січні цього року компанія Spotify отримала патент на технологію формування музичних рекомендацій на основі голосу користувача та його настрою. Патент описує можливість аналізу голосу людини для визначення її емоційного стану та інших даних (наприклад, де вона — в місті чи в лісі, сама чи в компанії) і формування музичних пропозицій на основі цих даних. Однак цей патент викликав протести серед музикантів, і на початку травня керівнику та засновнику Spotify було направлено листа з вимогою відмовитися від цілої низки патентів, що стосуються технологій розпізнавання голосу. У своєму листі музиканти спільно з представниками некомерційної організації Access Now звинувачують компанію в неетичності таких патентів і серед ризиків їх використання називають емоційне маніпулювання слухачами. Про серйозність проблеми свідчить і те, що одразу за першим листом було відправлено ще одного. У відповідь у Spotify пообіцяли не впроваджувати ці технології в свої розробки.

Технологію розпізнавання емоцій активно використовують російські банки, наприклад, під час спілкування із співробітниками контакт-центрів для оцінювання рівня задоволеності клієнта. Система аналізує емоційне забарвлення діалогу, а також додаткові параметри: кількість пауз, інтонації, зміну гучності голосу під час діалогу. Крім того, за задумом розробників цих технологій, розуміння емоційного стану візаві має допомогти співробітникам банків у побудові діалогу, наприклад, співробітники контакт-центрів можуть проявляти співчуття та співпереживати.

Російський «Альфа-банк» почав тестувати систему аналізу емоцій відвідувачів банківських відділень, щоб оцінити рівень обслуговування. Але краще розуміння емоцій банки в Росії використовують не тільки з метою поліпшення власних послуг. Колекторське агентство, що працює з одним із найбільших російських банків, почало використовувати розпізнавання емоцій боржників із голосу. Водночас у банку не відкидають майбутнє застосування технології в інших сферах. Суть технології полягає в аналізі інтонацій клієнтів банку та побудові на основі цих даних результативного діалогу. Система може досить точно передбачити сценарій, за яким піде діалог із клієнтом.

Але іноді зустрічаються й досить страшні способи застосування цих інструментів. Наприклад, нещодавно стало відомо, що влада індійського міста Лакхнау використовуватиме таку систему для оцінювання психологічного стану жінок — можливих жертв насильства. Така система має допомогти владі розуміти, кажуть жертви правду чи брешуть.

Етичність технології

Технології розпізнавання емоцій породжують безліч проблем. Одна з головних полягає в етичності їх застосування. Якщо припустити, що такі системи правильно читають настрій та емоції людини, наскільки етично користуватися цими даними? Чи не означає аналіз цих даних та ухвалення рішень на їх основі фактичну відмову в праві людини на емоції, наприклад на роздратованість або смуток?

До того ж до створення та випробування таких інструментів є безліч запитань. Наприклад, у травні цього року стало відомо, що влада Китаю тестує систему розпізнавання емоцій на уйгурах у так званих центрах виховання, до того ж у країні є кілька фірм, продукція яких орієнтована саме на таке їх застосування, хоча ті й кажуть про незалежність своїх продуктів від національності або релігійної приналежності.

Британські правозахисники з групи Article19, вивчивши використання в Китаї технологій розпізнавання емоцій, закликають відмовитися від таких рішень, бо вони «несумісні з прийнятими у всьому світі стандартами прав людини».

Дослідники з Кембриджу створили проєкт, який усім охочим дає змогу зрозуміти, як працює система розпізнавання емоцій, підключившись у браузері до вебкамери. Водночас розробники цього сервісу рекомендують звернути увагу на використання таких інструментів і закликають вивчити всі ризики для прав і свобод людини.

Автори проєкту також акцентують увагу на помилкових спрацьовуваннях цих систем і підкреслюють, що активний інтерес до цих сервісів під час пандемії став занадто великий (їх почали тестувати, наприклад, у школах і університетах, щоб зрозуміти, чи списують студенти, чи не відволікаються вони під час занять). Відповідно, зросла в рази загроза конфіденційності цих даних. Зокрема, не завжди очевидно, в кого буде доступ до даних розпізнавання та хто і як їх використовуватиме.

Емоції — це не точна наука

Іншою проблемою роботи технологій розпізнавання емоцій є їх точність і достовірність. Понад десяти років тому вчені з декількох країн світу опублікували результати ґрунтовного дослідження, яке продемонструвало неточність сприйняття емоцій. Автори дослідження довели, що початкове сприйняття людини та її настрою та спогади про неї викривляють ситуація, оточення та інші чинники. Іншими словами, перше враження різних людей про емоції іншої людини буде відрізнятися. Інше дослідження, в межах якого вже у 2021 році була перевірена точність використання штучного інтелекту для виявлення емоцій, привело до аналогічних висновків: алгоритми неправильно розпізнають людські емоції, ба більше, немає точних доказів того, що вираз обличчя, так само як і стиль побудови діалогу, відображає емоційний настрій людини.

Кейт Кроуфорд, професорка-дослідниця в USC Annenberg і старша наукова співробітниця Microsoft Research підкреслює інші проблеми достовірності та точності таких розробок:

У сфері вивчення емоцій дослідники не дійшли єдиної думки про те, що насправді являє собою емоція, як вона формується та виражається всередині нас, якими можуть бути її фізіологічні або нейробіологічні функції, як вона виявляється за різних стимулів. Проте все ще існує автоматичне читання емоцій. Однак учені розуміють, що визнання того, що емоції нелегко класифікувати, що їх не можна достеменно виявити з виразу обличчя, може підірвати зростання бізнесу. Тривалі суперечки вчених підтверджують головне слабке місце цієї технології: універсальне виявлення — неправильний підхід. Емоції складні, вони розвиваються та змінюються залежно від нашої культури та історії — всіх різноманітних контекстів, які існують поза межами штучного інтелекту.

Кейт Кроуфорд

Кейт Кроуфорд

Професорка-дослідниця в USC Annenberg і старша наукова співробітниця Microsoft Research

Складно сказати, чи прислухаються до думки вчених і правозахисників розробники інструментів розпізнавання емоцій, які обіцяють бізнесу наймати ефективних співробітників і підвищувати продуктивність праці. Можливо, такі інструменти дуже швидко стануть предметом регулювання та навіть обмежень, особливо якщо вони й далі використовуватимуть штучний інтелект.

Коментарі

Всі новини