Инструменты распознавания эмоций, по словам их создателей, должны помочь в решении конфликтов и предотвращении преступлений. На самом деле точность их работы вызывает вопросы у ученых, а возможное распространение — протесты у правозащитников.
Право на злость, усталость и раздражительность
Героиня эпизода «Я скоро вернусь» (Be Right Back) популярного сериала «Черное зеркало» попыталась создать цифровую копию своего умершего мужа и поместила его сознание в искусственное тело. Однако длительного и успешного общения с цифровым заменителем у нее не получилось, отчасти потому, что цифровой двойник был абсолютно послушным индивидуумом и практически не проявлял эмоций. Именно эти особенности воспрепятствовали желанию его партнерши построить совместную жизнь. В результате аватара поместили на чердак.
Эмоции — это одно из уникальных явлений, которое делает нас живыми людьми. В последние годы психологи и ученые много говорят и пишут об эмоциональном интеллекте, учат его развивать. Они же убеждают нас в том, что плохих эмоций не бывает, что человек может и должен ощущать грусть, усталость и раздражительность: это такие же эмоции, как и спокойствие, счастье или радость.
Разработчики инструментов распознавания эмоций, ставших популярными в Китае и начавших активно использоваться в России, явно не говорят об отсутствии права на плохие эмоции. Задача их продуктов — определять человеческие эмоции, чтобы использовать эту информацию, естественно, в чьих-то целях. Однако у этих инструментов, равно как и у технологии в целом, есть много спорных моментов. Среди них — и точность их работы и этичность применения, отсутствие законодательного регулирования их использования и конфиденциальность собираемых данных.
Например, разработчики системы распознавания эмоций Taigusys, популярной в Китае, не скрывают, что их продукт может фиксировать и определять выражения лиц сотрудников компании, использующих ее систему, и даже неискреннюю улыбку. В компании утверждают, что система помогает избежать конфликтов на рабочем месте и улучшить эффективность труда, например выявить, когда сотруднику нужен перерыв. Среди клиентов Taigusys — Huawei, China Mobile, China Unicom и PetroChina. Кроме того, ее разработки используют в китайских тюрьмах: по словам топ-менеджеров компании, они помогают заключенным оставаться «более послушными».
В некоторых случаях использование систем распознавания эмоций выглядит странно и даже пугающе. Например, дочернее подразделение компании Canon в Китае использует систему распознавания эмоций, которая пропускает внутрь офиса только улыбающихся сотрудников. Эту систему в компании называют инструментом «управления рабочим пространством».
Кто и для чего разрабатывает инструменты для распознавания эмоций
Автоматизированные системы анализа эмоций также активно используют в рекрутинге. К примеру, компания HireVue применяет собственные разработки в этой сфере: ее система анализирует видеорезюме и видеозаписи собеседований, принимая во внимание мимику, тон голоса и другие данные для оценки кандидата. Еще один игрок этого рынка — Pymetrics, разработка которой позволяет оценить «когнитивные и эмоциональные характеристики всего за 25 минут».
Свои системы распознавания эмоций разработали Amazon, Microsoft и IBM, а Apple в 2016 году купила стартап Emotient — создателя ПО для распознавания эмоций по фото.
Одним из крупнейших разработчиков систем анализа эмоций является бостонская компания Affectiva, основанная бывшими сотрудниками Массачусетского технологического института. Она создала одну из крупнейших в мире баз данных эмоций, состоящую из более чем 10 млн выражений лиц людей из 87 стран, а на основе этих данных выпустила множество приложений, которые умеют, например, обнаруживать отвлекающихся и склонных к риску водителей на дорогах или оценивать эмоциональную реакцию потребителей на рекламу.
Где еще используют системы распознавания эмоций
Чтение и понимание эмоций людей используется в разных ситуациях, иногда совсем неочевидных. Так, например, в январе этого года компания Spotify получила патент на технологию формирования музыкальных рекомендаций на основе голоса пользователя и его настроения. Патент описывает технологию анализа голоса человека для определения его эмоционального состояния и других данных (например, где он находится: в городе или в лесу, он один или в компании) и формирование музыкальных предложений на основе этих данных. Однако этот патент вызвал протесты среди музыкантов, и в начале мая руководителю и основателю Spotify было направлено письмо с требованием отказаться от целого ряда патентов на технологии распознавания голоса. В своем письме музыканты совместно с представителями некоммерческой организации Access Now обвиняют компанию в неэтичности таких технологий и среди рисков их использования называют эмоциональное манипулирование слушателями. О серьезности проблемы говорит и то, что вслед за первым письмом было отправлено еще одно. В ответ в Spotify пообещала не внедрять эти технологии в свои разработки.
Технологию распознавания эмоций активно используют российские банки. Эти инструменты применяют, например, при общении с сотрудниками контакт-центров для оценки уровня удовлетворенности клиента. Система анализирует эмоциональный окрас диалога, а также дополнительные параметры: количество пауз, интонации, изменение громкости голоса при диалоге. Кроме того, по замыслу разработчиков этих технологий, понимание эмоционального состояния своего визави должно помочь сотрудникам банков в построении диалога, например, сотрудники контакт-центров могут проявлять сочувствие и сопереживать.
Российский «Альфа-банк» начал тестировать систему анализа эмоций посетителей банковских отделений, чтобы оценить уровень обслуживания. Но лучшее понимание эмоций банки России используют не только с целью улучшения собственных услуг. Коллекторское агентство, работающие с одним из крупнейших российских банков, начало применять распознавание эмоций должников по голосу. При этом в банке не исключают будущее применение технологии в других сферах. Суть технологии состоит в анализе интонаций клиентов банка и на основе этих данных построения результативного диалога. Система может весьма точно предсказать сценарий, по которому пойдет диалог с клиентом.
Но иногда встречаются и весьма пугающие способы применения этих инструментов. Например, недавно стало известно, что власти индийского города Лакхнау будут использовать такую систему для оценки психологического состояния женщин — предполагаемых жертв насилия. Такая система должна помочь властям понимать, говорят ли жертвы правду или лгут.
Этичность технологии
Технологии распознавания эмоций порождают множество проблем. Одна из главных состоит в этичности их применения. Если предположить, что такие системы правильно читают настрой и эмоции человека, насколько этично пользоваться этими данными? Не означает ли анализ этих данных и принятие решений на их основе фактическим отказом в праве человека на эмоции, например на раздраженность или грусть?
Да и к созданию и испытанию таких инструментов есть множество вопросов. Например, в мае этого года стало известно, что власти Китая тестируют систему распознавания эмоций на уйгурах в так называемых центрах воспитания, причем в стране есть несколько фирм, продукция которых ориентирована именно на такое их применение, хотя те и говорят о независимости своих продуктов от национальности или религиозной принадлежности.
Британские правозащитники из группы Article19, изучив использование в Китае технологий распознавания эмоций, призывают отказаться от таких решений, ибо они «несовместимы с принятыми во всем мире стандартами прав человека».
Исследователи из Кембриджа создали проект, который всем желающим позволяет понять, как работает система распознавания эмоций, подключившись в браузере к веб-камере. Создатели этого сервиса рекомендуют обратить внимание на использование таких инструментов и призывают изучить все риски для прав и свобод человека.
Авторы проекта также акцентируют внимание на ложных срабатываниях этих систем и подчеркивают, что активный интерес к таким сервисам во время пандемии стал слишком большим (их начали тестировать, например, в школах и университетах, чтобы понять, списывают ли студенты, не отвлекаются ли они во время занятий). Соответственно, в разы возросла угроза конфиденциальности этих данных. Ведь не всегда очевидно, у кого будет доступ к данным распознавания и кто и как будет их использовать.
Эмоции — это не точная наука
Другой проблемой работы технологий распознавания эмоций является их точность и достоверность. Больше десяти лет назад ученые из нескольких стран мира опубликовали результаты основательного исследования, продемонстрировавшего неточность восприятия эмоций. Авторы исследования доказали, что первоначальное восприятие человека и его настроения и воспоминание о нем искажают ситуация, окружение и другие факторы. Иными словами, первое впечатление разных людей об эмоциях другого человека будет различаться. Другое исследование, в рамках которого уже в 2021 году была проверена точность использования искусственного интеллекта для понимания эмоций, привела к аналогичным выводам: алгоритмы неверно распознают человеческие эмоции, к тому же не существует точных доказательств того, что выражение лица, равно как и стиль построения диалога, отображает эмоциональный настрой человека.
Кейт Кроуфорд, профессор-исследователь в USC Annenberg и старший научный сотрудник Microsoft Research подчеркивает другие проблемы достоверности и точности таких разработок:
В области изучения эмоций исследователи не пришли к единому мнению о том, что на самом деле представляет собой эмоция, как она формируется и выражается внутри нас, какими могут быть ее физиологические и нейробиологические функции, как она проявляется при разных стимулах. Несмотря на это, все еще существует автоматическое чтение эмоций. Однако ученые понимают, что признание того, что эмоции нелегко классифицировать, что их нельзя надежно обнаружить по выражению лица, может подорвать растущий бизнес. Длительные споры ученых подтверждают главное слабое место этой технологии: универсальное обнаружение — неправильный подход. Эмоции сложны, они развиваются и меняются в зависимости от нашей культуры и истории — всех разнообразных контекстов, которые существуют вне рамок искусственного интеллекта.

Кейт Кроуфорд
профессор-исследователь в USC Annenberg и старший научный сотрудник Microsoft Research
Сложно сказать, прислушаются ли к мнению ученых и правозащитников разработчики инструментов распознавания эмоций, которые обещают бизнесу нанимать эффективных сотрудников и повышать производительность труда. Не исключено, что такие инструменты очень быстро станут предметом регулирования и даже ограничений, особенно если они и дальше будут использовать искусственный интеллект.