Законопроекти ЄС щодо регулювання розпізнавання облич та штучного інтелекту матимуть вплив на весь ринок, зокрема, на компанії із США та Китаю.
Спроби законодавчого регулювання технологій, на відміну від інших законів, що, зазвичай, мають локальний характер, є більш глобальними. Адже кордони в технологічному світі – це доволі примарне явище, і тому спроби регулювання та запровадження законів щодо технологій однією країною можуть вплинути на весь ринок – якщо не прямо, то опосередковано.
Саме так відбулося, коли у ЄС в 2018 році був запроваджений GDPR (General Data Protection Regulation) – загальний регламент захисту даних, набір законів, спрямованих на захист персональних даних користувачів інтернету.
Зараз ми спостерігаємо нову спробу регулювання ІТ-ринку – Єврокомісія запропонувала значно обмежити використання штучного інтелекту. Ідеї, запропоновані в законопроєкті, опублікованому Єврокомісією, спрямовані на поєднання прогресу із захистом прав людини.
Чи вдасться авторам цього законопроєкту досягти розумного балансу між обмеженнями, та не завадити при цьому розвитку штучного інтелекту, галузі, що прямо чи опосередковано використовується в дуже багатьох сферах, питання поки відкрите.
Так само, як і те, чи стануть реальністю запропоновані ідеї. Очевидно лише, що сфера технологій стає все більш пов’язаною з геополітикою, і протистояння між країнами в цій сфері відіграє важливу роль у розподілі сил у світі та в умовно-новій «холодній війні», цього разу технологічній.
Нові правила, озвучені Єврокомісією, наразі є найбільш серйозною спробою регулювання штучного інтелекту. Вони можуть стати основною у формулюванні глобальних вимог та правил стосовно цієї перспективної, але не менш контраверсійної технології.
Впорядкований інтелект
У пропозиціях Єврокомісії міститься заборона використання штучного інтелекту (ШІ) в тих сферах, де він може загрожувати суспільству. Лише тоді, коли технології відповідатимуть всім вимогам безпеки, а також точності, надійності та відкритості, вони зможуть потрапити на ринок та почати застосовуватися.
У документі відзначається, що базовим елементом розвитку ШІ має стати довіра. Автори законопроєкту зазначають, що на цьому базисі можна побудувати етичні технології – такі, які не загрожують безпеці та основним правам громадян ЄС.
Автори цього документу визначили чотири рівні ризику для технологій штучного інтелекту. Технології з мінімальним рівнем ризику будуть дозволені, окрім того, в законопроєкті визначені такі, які матимуть обмежений, високий чи неприйнятний рівень ризику. Коментуючи цей підхід, віцепрезидентка Єврокомісії Маргрете Вестагер (Margrethe Vestager) пояснила, що чим вищі ризики для ШІ, тим сильніші обмеження до нього застосовуватимуться. Загалом саме сфера застосування штучного інтелекту визначатиме рівень запроваджуваних обмежень.
В пропозиціях Єврокомісії міститься ідея заборонити використання штучного інтелекту в окремих сферах, в яких він може загрожувати суспільству – в цьому випадку йдеться про технології з недопустимим рівнем ризику. Серед них були названі технології для оцінки достовірності судових доказів, використання алгоритмів для найму співробітників та перевірки достовірності документів, використання ШІ в роботизованій хірургії.
Використання штучного інтелекту в судочинстві та правоохоронній діяльності вважаються особливо небезпечними. Загалом забороненими вважаються інструменти штучного інтелекту для маніпулювання людьми та їхніми рішеннями.
Що стосується технологій з високим рівнем ризику, то це автоматичні оцінки іспитів, кредитний скоринг – в цих випадках автори законопроєкту головною проблемою називають можливу дискримінацію. Такі технології вимагають нагляду зі сторони регуляторів. Технологіями з обмеженим доступом були названі чат-боти, в цьому випадку людина-користувач таких технологій повинна бути повідомлена, що вона спілкується з алгоритмом, а не з живою людиною.
Водночас у Єврокомісії визначили технології штучного інтелекту з мінімальним ризиком для суспільства, серед яких – ігрові алгоритми чи спам-фільтри. Їх було запропоновано ніяк не регулювати.
Масове розпізнавання: дозволене в окремих випадках
Окрема заборона стосувалась розпізнавання облич в громадських місцях, окрім окремих випадків, до прикладу, пошуку зниклих людей, виявлення злочинців чи запобігання терористичних актів.
Складність запровадження норм стосовно цих технологій полягає в декількох аспектах. По-перше, сьогодні розпізнавання осіб дуже активно використовується як у повсякденному житті, так і в діяльності дуже багатьох компаній та структур. Власники смартфонів з Face ID використовують розпізнавання облич десятки, а то й сотні разів на день. В багатьох аеропортах Євросоюзу громадяни країн ЄС можуть проходити паспортний контроль в автоматичному режимі саме завдяки використанню технологій розпізнавання.
Водночас саме технології розпізнавання в тоталітарних режимах стали інструментом репресій та поліцейського свавілля. Через це в окремих штатах та містах у США використання технологій розпізнавання (Сан-Франциско, Бостон і Портленд) було заборонено.
Голова ГО «Електронна республіка», експерт з електронного урядування Євген Поремчук пояснив у коментарі , що розпізнавання облич (РО) – як мирний атом, тобто, у надійних руках має велику корисну дію.
Наприклад, здійснює додаткову автентифікацію в мобільних додатках, автоматично індексує файли зображень і відеофайли для ЗМІ та компаній індустрії розваг, а також дозволяє правозахисним групам виявляти та рятувати жертв работоргівлі. А для поліції та спецслужб – це ще один спосіб виявлення злочинців.
«Побутовий приклад корисної дії РО – компанія Marinus Analytics, яка використовує штучний інтелект у сервісі Amazon Rekognition для розробки інструментів, таких як Traffic Jam. Вони дозволяють правозахисним агентствам виявляти жертв работоргівлі та визначати їхнє місцезнаходження. Я думаю, що в європейських країнах посилюватимуть регуляції технологій розпізнавання, насамперед, у бізнесі. В таких умовах сервіси на кшталт Amazon Go навряд чи зайдуть в Європу. Спецслужби від можливих заборон традиційно не постраждають, особливо на тлі нескінченних безпекових інцидентів».

Євген Поремчук
засновник IT-компанії BWN Group
Оцінюючи небезпеку технологій розпізнавання в Україні, Євген Поремчук зазначає, що Київ знаходиться на межі цифрового авторитаризму за китайською моделлю.
За його словами, про приватність мова вже не йде. Зокрема, про паспорт говорять, як про запис у державному реєстрі, що належить державі й управляється чиновником, а не як про захищений документ в одиничному екземплярі, що знаходиться у громадянина.
«Говорять про онлайн-вибори, які у наших реаліях залишать нас без вибору. Говорять про встановлення камер поліції, що дозволить поліцейським виявляти правопорушників. Це мене непокоїть найбільше. У Китаї, нагадаю, технології розпізнавання на службі держави перетворили країну у «цифровий ГУЛАГ» (згадайте тільки «цифровий концтабір» уйгурів). Упевнений, що у країнах зі слабкою довірою до влади, корумпованими судами та неефективною правоохоронною системою громадяни не отримають користі від впровадження засобів РО. Навпаки, у влади з'явиться новий інструмент тиску на бізнес, активістів та опозицію».

Євген Поремчук
засновник IT-компанії BWN Group
Європейський союз та світове технологічне протистояння
Наразі Євросоюз не можна назвати регіоном, який відіграє помітну роль в технологічному розвитку. Це пов’язане з відсутністю впливових глобальних технологічних компаній (хіба, окрім Spotify, хоча цей сервіс є нішевим проєктом). Тому Європа намагається впливати на ІТ-ринок за допомогою регулювання.
Першою його спробою було запровадження GDPR, а закони про штучний інтелект – продовження цього напрямку. Окрім того, варто згадати і признання восени 2020 року недійсним механізму Private Shield («Щит конфіденційності»), завдяки якому дозволялась передача особистих даних користувачів з Європи до США та зберігання цієї інформації на американських серверах.
В якості продовження цього рішення європейські регулятори можуть запровадити вимогу розміщувати на території ЄС обладнання, що зберігає дані європейців, або, як варіант, відмовитись від роботи у країнах Євросоюзу.
Аналогічним чином у ЄС можуть вимагати від компаній, що використовують інструменти штучного інтелекту, відповідати вимогам, представленим в новому документі. Хоча до реалізації цих заборон пройде доволі багато часу, адже зараз ми маємо справу лише із законопроєктом, покарання за порушення цих норм пропонуються доволі жорстокі – штрафи в розмірі до 6% від глобального доходу компаній-порушників.
Проблеми реалізації
Більше сотні країн намагаються регулювати штучний інтелект, і Україна — серед них. Проте спроби регулювання цієї галузі зустрічаються з проблемами, пов’язаними з тим, що поняття «надійність», «стійкість» та «прозорість» цієї галузі складно досягти на практиці чи перевірити.
Поремчук впевнений, що, враховуючи реальний ринок у $22 млрд тільки по технологіям розпізнавання облич та голосу, а також його перспективну ємність ще у $30 млрд, – можна прогнозувати, що Єврокомісія не заборонятиме ці технології повністю. Можливо, дещо звузить рамки використання.
На думку деяких експертів, нові правила значно ускладнять роботу саме європейським стартапам в галузі штучного інтелекту, зробивши їх неконкурентними порівняно зі своїми китайськими та американськими колегами.
Іншою проблемою є те, що деякі з цих правил є неконкретними, на думку Деніела Леуфера (Daniel Leufer), аналітика європейської політики в організації Access Now, що досліджує дотримання цифрових прав. Проте вони є важливим кроком вперед до визначення потенційно небезпечного використання цих технологій.
Деякі випадки використання штучного інтелекту стали настільки звичним елементом повсякденного онлайнового життя, що їхні обмеження чи заборона вплинуть на роботу багатьох звичних сервісів, до прикладу, сервісів онлайн-реклами, які аналізують вподобання користувачів та у відповідності з їхнім вибором та поведінкою демонструють їм онлайн-рекламу. З одного боку, такі обмеження, до прикладу, заборонять показувати рекламу ігор чи алкоголю людям із залежностями, з іншого – це змінить самі принципи таргетингу цифрової реклами. Тому, як працюватимуть ці сервіси, наразі оцінити складно.
«Вся онлайн-реклама є маніпуляцією поведінки людини. Задача заборон – визначити, яка маніпуляція допустима, яка ні», — пояснює Аві Гессер (Avi Gesser), партнер юридичної компанії Debevoise, підкреслюючи, що саме в цій сфері заборони та обмеження значно вплинуть на роботу BigTech.
Якщо Євросоюзу вдасться запровадити реально працюючі правила заборони окремих застосувань штучного інтелекту, то історії про голосування під час Brexit та використання даних компанією Cambridge Analytica для маніпулювання результатами виборів стали б неможливими. Питання в тому, скільки часу потрібно для запровадження цих норм та чи не знайдуть техногіганти лазівок у цих обмеженнях.