Алгоритми можуть підвищити ефективність або зруйнувати репутацію. Компанії, що не пояснюють свої ШІ-рішення, ризикують втратити довіру клієнтів, інвесторів і регуляторів.
Штучний інтелект (ШІ) уже давно перестав бути футуристичною концепцією — сьогодні він впливає на всі аспекти нашого життя. Від фінансів до медицини, від рекомендацій товарів до прийняття рішень на основі даних — ШІ формує наш світ швидше, ніж ми встигаємо адаптуватися.
Проте разом із його розвитком зростають виклики, особливо ті, що стосуються прозорості та зрозумілості. Бізнеси, які хочуть залишатися на передовій впровадження нових технологій, повинні змінити підхід і забезпечити, щоб їхні рішення, ухвалені ШІ, були зрозумілими, етичними та відповідальними.

У міру того як ШІ стає ширше застосовуваним, повноваження щодо прийняття рішень переходять від людей до алгоритмів. Однак важливо визнати, що відповідальність за результати цих рішень не може бути делегована алгоритмам. Вона лежить на плечах людей і організаціях, які використовують ШІ.
В цьому аспекті важливо виокремлювати прозорість технології ШІ, а також організацій, які її використовують.
Чому важлива прозорість технології ШІ?
Прозорість та зрозумілість часто обговорюються у контексті етичного ШІ, але для бізнесу ці принципи мають ще більшу вагу — вони є ключовими у довірі клієнтів, інвесторів та регуляторів. Прозорість ШІ означає розуміння того, як системи приймають рішення, завдяки чому вони дають конкретні результати і які дані вони використовують.
А зрозумілість дає відповіді на питання «чому?» ШІ ухвалив те чи інше рішення. Іншими словами, прозорість показує, що сталося, а зрозумілість — як це сталося.
Надання прозорості функціонуванню ШІ безпосередньо впливає на рівень довіри до самої технології.
Згідно зі звітом компанії Salesforce, 58% осіб, що брали участь в опитуванні, зазначили, що прозорість використання ШІ може значно підвищити їхню довіру до технології.
З іншого боку, відсутність прозорості може призводити до непередбачуваних рішень, дій, зловживань, збоїв та завдавати шкоди.
Так, у 2018 році британська компанія Cambridge Analytica незаконно отримала особисті дані мільйонів користувачів Facebook без їхньої згоди. Це порушення дало змогу Cambridge Analytica неправомірно створити деталізовані профілі осіб. Алгоритми ШІ стали основою цього випадку зловживання даними, оскільки вони аналізували та маніпулювали отриманими даними, створюючи контент, що використовував вразливості, страхи та переконання з метою маніпулювання політичними думками та поведінкою через створення оманливої політичної реклами.
У 2023 році Apple зіткнулася з критикою стосовно алгоритмів кредитних рішень, які надали жінці в 20 разів менший кредитний ліміт, ніж її чоловікові, попри подібну кредитну історію. Ситуація викликала обурення, адже компанія не змогла пояснити роботу алгоритму. Це ще раз підтвердило: якщо бізнес не може пояснити, як працюють його ШІ-системи, це загрожує не лише довірі, але й юридичними наслідками.
Ризики «чорних ящиків»
«Чорні ящики» або "black box" — непрозорі моделі ШІ, що приймають рішення, які неможливо пояснити. Це створює серйозні ризики для бізнесу, особливо коли йдеться про алгоритмічну дискримінацію або неправильні прогнози.
Законодавчі підходи до регулювання ШІ та вимоги до прозорості
Регулятори по всьому світу — від ЄС до США — роблять акцент на необхідності прозорості та зрозумілості ухвалення рішень за допомогою участі ШІ.
Європейський Союз
1 серпня 2024 року набрав чинності AI Act в ЄС, який вступає в силу поступово. Запропоноване регулювання має на меті забезпечити безпеку та дотримання основних прав і цінностей ЄС при впровадженні систем ШІ на європейському ринку та при їхньому використанні в межах ЄС.
Основна концепція полягає у регулюванні ШІ на основі його потенційної шкоди для суспільства, використовуючи підхід, заснований на оцінці ризиків, коли суворіші правила застосовуються до ШІ з підвищеним ризиком.
Щодо прозорості ШІ, AI Act визначає її як один із загальних принципів, що застосовуються до всіх систем ШІ. Встановлюються вимоги до того, як системи ШІ мають бути розроблені і використані, з метою забезпечення належної відстежуваності та зрозумілості.
До того ж певні розробники систем ШІ прямо зобов’язані публікувати інформацію про дані, на яких навчалася система, забезпечуючи більшу прозорість. Відповідно необхідно забезпечити прозорість, пов'язану з технічною інфраструктурою систем ШІ.
Зобов'язання щодо прозорості варіюються залежно від рівня ризику ШІ та вимагають, щоб ШІ були прозорими у своєму функціонуванні та щоб користувачі могли розуміти, як ухвалюються рішення та яка логіка стоїть за цими рішеннями. Це передбачає пояснення того, як ШІ ухвалює рішення, а також надання інформації про дані, використані для навчання ШІ.
Окремо слід звернути увагу на проекцію положень Загального регламенту із захисту даних ЄС на ШІ.
Так, відповідно до статей 12, 13 і 14 GDPR, які стосуються прозорості та права на інформацію, компанії повинні інформувати суб'єктів даних про те, як обробляються їхні персональні дані у чіткий, зрозумілий і легкодоступний спосіб. Це включає інформування про використання автоматизованого прийняття рішень, таких як профілювання, та логіку, що стоїть за цим. Компанії повинні бути відкритими та чесними (прозорими) щодо того, як використовується ШІ, як обробляються персональні дані, важливості рішень, ухвалених на основі ШІ, а також будь-яких небезпек і побічних ефектів, які можуть бути пов'язані з цим.
США
30 жовтня 2023 року президент США підписав указ «Про безпечний, надійний та відповідальний розвиток і використання штучного інтелекту» (Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence). Цей указ ґрунтується на попередньому проєкті акту про права у сфері ШІ (Blueprint for an AI Bill of Rights) та окреслює комплексну стратегію, спрямовану на розробку умов функціонування ШІ. Наразі в США на підписі у губернатора Каліфорнії знаходиться законопроєкт про безпеку штучного інтелекту.
Передбачається, що системи ШІ повинні будуть проходити ретельну, незалежну та стандартизовану оцінку для забезпечення їхньої безпеки та захищеності.
Окрема увага приділяється важливості узгодження ШІ відповідно до принципу рівності, зокрема вирішення питання «алгоритмічної дискримінації».
Такий підхід США ґрунтується на потенційному встановлені комплексного регулювання ШІ, а саме процесів навчання, обробки та зберігання даних, а також алгоритмів прийняття рішень, що, своєю чергою, має забезпечити прозорість технології та захист прав громадян.
Україна
7 жовтня 2023 року в Україні було представлено Дорожню карту з регулювання штучного інтелекту, яка має на меті створити регулятивну базу до ухвалення закону-аналога AI Act Європейського Союзу і підготувати громадян до особливостей взаємодії з ШІ. А влітку цього року представлено Білу книгу щодо майбутнього регулювання цієї сфери в Україні.
Україна обрала Bottom-up підхід, що встановлює поетапний рух від меншого до більшого. Так, встановлюється два етапи:
- Позазаконодавчий етап, який охоплює створення загальних рекомендацій, кодексів поведінки, розробку регуляторної Пісочниці, Білої книги тощо.
- Законодавчий етап, який охоплює підготовку до прийняття профільного закону з урахуванням досвіду ЄС, а також безпосереднє ухвалення закону.
Відповідно Україна імплементуватиме регуляторний та практичний досвід ЄС щодо ШІ, зокрема щодо прозорості функціонування та прийняття рішень.
Також Україна має на меті прийняти рамкову конвенцію "Framework Convention on Artificial Intelligence and human rights, democracy and the rule of law", яка також має на меті забезпечити більшу прозорість та зрозумілість систем ШІ.
Стратегії впровадження прозорості ШІ у вашому бізнесі
Ось декілька важливих кроків, що сприятимуть підвищенню рівню довіри користувачів до технології, нададуть розуміння причин помилок, яких припускаються алгоритми ШІ, що дозволить здійснювати вдосконалення системи:
- Документуйте кожне рішення, що стосується структури, використання даних або адаптації моделей.
- Проінформуйте користувачів про те, на яких даних навчалася ваша модель, або звідки ви брали ці дані. Акцентуйте увагу на законності збору даних та захисту персональних даних і авторських прав під час навчання моделі.
- Інформуйте клієнтів і користувачів про те, що вони взаємодіють з ШІ. Це підвищує довіру і забезпечує зворотний зв'язок для вдосконалення систем.
- Поясніть, яким чином використовується штучний інтелект у ваших процесах, чи бере штучний інтелект участь в ухваленні рішень.
- Надайте можливість користувачам оскаржити рішення, прийняті автоматично, за участі систем ШІ.
- Вимагайте від постачальників ШІ чітких пояснень щодо їхніх моделей. Нестача прозорості у сторонніх рішеннях може спричинити серйозні ризики.
- Залучайте експертів з прав людини, персональних даних, інтелектуальної власності, громадські організації, щоб зробити розробку ШІ більш прозорою, безпечною та відповідальною.
- Використовуйте міжнародні методології щодо оцінки та мінімізації впливу штучного інтелекту на права людини, зокрема методологію HUDERIA.
ШІ — це не просто інструмент автоматизації, а потужний засіб, який може трансформувати бізнес і суспільство. Але разом із великими можливостями приходить значна відповідальність.
Прозорість і зрозумілість — це не просто нові слова, а основа для етичного та відповідального використання ШІ. Бізнеси, які інтегрують ці принципи у свої стратегії, не лише підвищують довіру клієнтів, але й забезпечують собі стійкість у мінливому регуляторному середовищі.