Законопроекты ЕС по регулированию распознавания лиц и искусственного интеллекта будут иметь влияние на весь рынок, в частности, компании из США и Китая.
Попытки законодательного регулирования технологий, в отличие от других законов, которые обычно имеют локальный характер, будут более глобальными. Ведь границы в технологическом мире — это довольно призрачное явление, и поэтому попытки регулирования и введения законов о технологиях одной страной могут повлиять на весь рынок — если не прямо, то косвенно.
Именно так произошло, когда в ЕС в 2018 году был введен GDPR (General Data Protection Regulation) — общий регламент защиты данных, набор законов, направленных на защиту персональных данных пользователей интернета.
Сейчас мы наблюдаем новую попытку регулирования IT-рынка — Еврокомиссия предложила значительно ограничить использование искусственного интеллекта. Идеи, предложенные в законопроекте, опубликованном Еврокомиссией, направлены на сочетание прогресса с защитой прав человека.
Удастся ли авторам этого законопроекта достичь разумного баланса между ограничениями, но не помешать при этом развитию искусственного интеллекта, отрасли, которая прямо или косвенно используется в очень многих сферах, вопрос пока открытый.
Так же, как и то, станут ли реальностью предложенные идеи. Очевидно лишь, что сфера технологий становится все более связанной с геополитикой, и противостояние между странами в этой сфере играет важную роль в распределении сил в мире и в условно-новой «холодной войне», на этот раз технологической.
Новые правила, озвученные Еврокомиссией, сейчас являются наиболее серьезной попыткой регулирования искусственного интеллекта. Они могут стать основой к формулировке глобальных требований и правил по этой перспективной, но не менее контраверсийной технологии.
Упорядоченный интеллект
В предложениях Еврокомиссии содержится запрет на использование искусственного интеллекта (ИИ) в тех сферах, где он может угрожать обществу. Только тогда, когда технологии будут отвечать всем требованиям безопасности, а также точности, надежности и открытости, они смогут попасть на рынок и начать применяться.
В документе отмечается, что базовым элементом развития ИИ должно стать доверие. Авторы законопроекта подчеркивают, что на этом базисе можно построить этичные технологии — такие, которые не угрожают безопасности и основным правам граждан ЕС.
Авторы этого документа определили четыре уровня риска для технологий искусственного интеллекта. Технологии с минимальным уровнем риска будут разрешены, кроме того, в законопроекте определены такие, которые будут иметь ограниченный, высокий или неприемлемый уровень риска. Комментируя этот подход, вице-президент Еврокомиссии Вестагер (Margrethe Vestager) объяснила, что чем выше риски для ИИ, тем сильнее ограничения к нему будут применяться. В целом именно сфера применения искусственного интеллекта будет определять уровень вводимых ограничений.
В предложениях Еврокомиссии содержится идея запретить использование искусственного интеллекта в отдельных сферах, в которых он может угрожать обществу — в этом случае речь идет о технологиях с недопустимым уровнем риска. Среди них были названы технологии для оценки достоверности судебных доказательств, использование алгоритмов для найма сотрудников и проверки подлинности документов, использование ИИ в роботизированной хирургии.
Использование искусственного интеллекта в судопроизводстве и правоохранительной деятельности есть особо опасным. В целом запрещенными считаются инструменты искусственного интеллекта для манипулирования людьми и их решениями.
Что касается технологий с высоким уровнем риска, то это автоматические оценки экзаменов, кредитный скоринг — в этих случаях авторы законопроекта главной проблемой называют возможную дискриминацию. Такие технологии требуют надзора со стороны регуляторов. Технологиями с ограниченным доступом были названы чат-боты, в этом случае человек-пользователь таких технологий должен быть уведомлен, что он общается с алгоритмом, а не с живым человеком.
В то же время в Еврокомиссии определили технологии искусственного интеллекта с минимальным риском для общества, среди которых — игровые алгоритмы или спам-фильтры. Их было предложено никак не регулировать.
Массовое распознавание: разрешено в отдельных случаях
Отдельный запрет касался распознавания лиц в общественных местах, кроме отдельных случаев, к примеру, поиска пропавших людей, обнаружения преступников или предотвращения террористических актов.
Сложность внедрения норм в отношении этих технологий заключается в нескольких аспектах. Во-первых, сегодня распознавание лиц очень активно используется как в повседневной жизни, так и в деятельности очень многих компаний и структур. Владельцы смартфонов с Face ID используют распознавания лиц десятки, а то и сотни раз в день. Во многих аэропортах Евросоюза граждане стран ЕС могут проходить паспортный контроль в автоматическом режиме именно благодаря использованию технологий распознавания.
Вместе с тем именно технологии распознавания в тоталитарных режимах стали инструментом репрессий и полицейского произвола. Поэтому в отдельных штатах и городах США использование технологий распознавания (Сан-Франциско, Бостон и Портленд) было запрещено.
Председатель «Электронной республики», эксперт по электронному управлению Евгений Поремчук пояснил в комментарии , что распознавание лиц (РЛ) — как мирный атом, то есть в надежных руках может приносить большую пользу.
Например, осуществляет дополнительную аутентификацию в мобильных приложениях, автоматически индексирует файлы изображений и видеофайлы для СМИ и компаний индустрии развлечений, а также позволяет правозащитным группам выявлять и спасать жертв работорговли. А для полиции и спецслужб — это еще один способ выявления преступников.
«Бытовой пример полезного действия РЛ — компания Marinus Analytics, которая использует искусственный интеллект в сервисе Amazon Rekognition для разработки инструментов, таких как Traffic Jam. Они позволяют правозащитным агентствам выявлять жертв работорговли и определять их местоположение. Я думаю, что в европейских странах будут усиливать регуляции технологий распознавания, прежде всего в бизнесе. В таких условиях сервисы вроде Amazon Go вряд ли зайдут в Европу. Спецслужбы от возможных запретов традиционно не пострадают, особенно на фоне бесконечных инцидентов, касающихся безопасности».

Евгений Поремчук
Основатель IT-компании BWN Group
Оценивая опасность технологий распознавания в Украине, Евгений Поремчук отмечает, что Киев находится на грани цифрового авторитаризма по китайской модели.
По его словам, о конфиденциальности речь уже не идет. В частности, о паспорте говорят, как о записи в государственном реестре, которая принадлежит государству и управляется чиновником, а не как о защищенном документе в единичном экземпляре, находящемся у гражданина.
«Говорят про онлайн-выборы, которые в наших реалиях оставят нас без выбора. Говорят про установления камер полиции, что позволит полицейским выявлять правонарушителей. Это меня беспокоит больше всего. В Китае, напомню, технологии распознавания на службе государства превратили страну в «цифровой ГУЛАГ» (вспомните только «цифровой концлагерь» уйгуров). Уверен, что в странах со слабым доверием к власти, коррумпированными судами и неэффективной правоохранительной системой граждане не получат пользы от внедрения средств РЛ. Напротив, у власти появится новый инструмент давления на бизнес, активистов и оппозицию».

Евгений Поремчук
Основатель IT-компании BWN Group
Европейский союз и мировое технологическое противостояние
Сейчас Евросоюз нельзя назвать регионом, который играет заметную роль в технологическом развитии. Это связано с отсутствием влиятельных глобальных технологических компаний (разве что, кроме Spotify, хотя этот сервис является нишевым проектом). Поэтому Европа пытается влиять на IT-рынок посредством регулирования.
Первой его попыткой было введение GDPR, а законы об искусственном интеллекте — продолжение этого направления. Кроме того, стоит вспомнить и признание осенью 2020 недействительным механизма Private Shield («Щит конфиденциальности»), благодаря которому разрешалась передача личных данных пользователей из Европы в США и хранение этой информации на американских серверах.
В качестве продолжения этого решения европейские регуляторы могут ввести требование размещать на территории ЕС оборудование, которое сохраняет данные европейцев, или, как вариант, отказаться от работы в странах Евросоюза.
Аналогичным образом в ЕС могут требовать от компаний, использующих инструменты искусственного интеллекта, отвечать требованиям, представленным в новом документе. Хотя до реализации этих запретов пройдет довольно много времени, ведь сейчас мы имеем дело только с законопроектом, наказание за нарушение этих норм предлагаются довольно жестокие — штрафы в размере до 6% от глобального дохода компаний-нарушителей.
Проблемы реализации
Более сотни стран пытаются регулировать искусственный интеллект, и Украина — среди них. Однако попытки регулирования этой отрасли сталкиваются с проблемами, связанными с тем, что понятие «надежность», «устойчивость» и «прозрачность» этой отрасли сложно достичь на практике или проверить.
Поремчук уверен, что, учитывая реальный рынок в $22 млрд только по технологиям распознавания лиц и голоса, а также его перспективную емкость еще в $30 млрд, — можно прогнозировать, что Еврокомиссия не будет запрещать эти технологии полностью. Возможно, несколько сузит рамки использования.
По мнению некоторых экспертов, новые правила значительно усложнят работу именно европейским стартапам в области искусственного интеллекта, сделав их неконкурентными в сравнении со своими китайскими и американскими коллегами.
Другой проблемой является то, что некоторые из этих правил являются неконкретными, по мнению Дэниэла Леуфера (Daniel Leufer), аналитика европейской политики в организации Access Now, исследующей соблюдение цифровых прав. Однако они являются важным шагом вперед к определению потенциально опасного использования этих технологий.
Некоторые случаи использования искусственного интеллекта стали настолько привычным элементом повседневной онлайн-жизни, что их ограничения или запрет повлияют на работу многих привычных сервисов, к примеру, сервисов онлайн-рекламы, которые анализируют предпочтения пользователей и в соответствии с их выбором и поведением демонстрируют им онлайн-рекламу. С одной стороны, такие ограничения, к примеру, запретят показывать рекламу игр или алкоголя людям с зависимостями, с другой — это изменит сами принципы таргетинга цифровой рекламы. Поэтому, как будут работать эти сервисы, пока оценить сложно.
«Вся онлайн-реклама является манипуляцией поведения человека. Задача запретов — определить, какая манипуляция допустима, какая нет», — объясняет Ави Гессер (Avi Gesser), партнер юридической компании Debevoise, подчеркивая, что именно в этой сфере запреты и ограничения значительно повлияют на работу BigTech.
Если Евросоюзу удастся ввести реально работающие правила запрета отдельных приложений искусственного интеллекта, то истории о голосовании во время Brexit и использования данных компанией Cambridge Analytica для манипулирования результатами выборов стали бы невозможными. Вопрос в том, сколько времени нужно для внедрения этих норм и не найдут ли техногиганты лазейки в этих ограничениях.