Наразі компанії, що розвивають технології штучного інтелекту (ШІ), діють в умовах нерегульованої загальної конкуренції. У цій гонці дискусії про потенційну небезпеку, прозорість та інтелектуальну власність відійшли на другий план.
Однак 1 серпня в ЄС набув чинності перший всеосяжний закон (AI Act), який регулює ШІ. Новий закон дає компаніям достатньо часу для дотримання його норм (більшість регламентів набудуть чинності лише за два роки). Його нормативні концепції можуть знайти застосування й у США – на федеральному рівні чи рівні штатів.
вибрало з тексту закону найважливіші положення.
Класифікація систем ШІ залежно від загрози ризику
Законодавство ЄС починається із класифікації систем ШІ, залежно від ризиків, які вони несуть людям.
Неприйнятний ризик
Цю групу категорично заборонено законом. Вона включає системи, які вже були помічені в заподіянні реальної шкоди людям. До них відносяться:
- нецільові бази даних розпізнавання осіб, які відстежують усіх в інтернеті або через громадські камери відеоспостереження;
- соціальний скоринг, який класифікує людей на основі їхньої соціальної поведінки або особистих якостей;
- маніпулятивні чи обманні прийоми, також відомі як «темні патерни», які можуть обманом змусити людей підписатися на небажану передплату або перешкодити їм скасувати її;
- системи оцінки ризику, які прогнозують ймовірність скоєння людиною злочину чи можливості звільнення під заставу.
Високий ризик
Регулювання систем цієї категорії є суттю закону. Страхові компанії, банки та інструменти ШІ, які використовуються державними установами, правоохоронними органами та охороною здоров'я, які приймають важливі рішення, що впливають на життя людей, потраплять у цю категорію. До компаній, які розробляють або використовують ці системи ШІ, будуть пред'являтися підвищені вимоги до прозорості та людського нагляду.
До цієї категорії потрапляють будь-які системи, які відносяться до:
- біометричної ідентифікації;
- критично важливої інфраструктури, такої як магістральні інтернет-мережі, електромережі, системи водопостачання та інша енергетична інфраструктура;
- освіти, наприклад: оцінка успішності, прогнозування відсіву, прийом або розподіл учнів та моніторинг їхньої поведінки;
- зайнятості, наприклад: фільтрація резюме або заяв про прийом на роботу; моніторинг співробітників;
- державних та фінансових послуг, наприклад: алгоритми ціноутворення страхових полісів, системи оцінки кредитоспроможності, право на державну допомогу та системи реагування на надзвичайні ситуації, такі як виклики 911 або екстрена медична допомога;
- систем забезпечення дотримання закону, наприклад: прогнозування злочинів, поліграфи, аналіз доказів, кримінальне профілювання;
- обробки імміграційних заяв;
- демократичних процесів, таких як ухвалення судових рішень, вибори та голосування.
Обмежений ризик
До цієї категорії належать інструменти генеративного ШІ, такі як чат-боти та генератори зображень, наприклад ChatGPT або Midjourney.
Від них вимагається:
- розкриття інформації. Коли люди використовують ці інструменти, їм необхідно повідомити, що вони спілкуються з чат-ботом, який працює на основі ШІ;
- маркування контенту, створеного ШІ, щоб інші комп'ютери (і люди) могли зрозуміти, що робота виконана за допомогою ШІ.
Мінімальний ризик
Ці системи залишаються нерегульованими і включають деякі елементи ШІ, які вже давно стали частиною нашого життя, наприклад, спам-фільтри або ШІ, що використовується у відеоіграх.
Вимоги ЄС до систем ШІ загального призначення
Ще однією ключовою концепцією в регламенті є визначення систем ШІ загального призначення. Під ними розуміються моделі ШІ, які були навчені широкому спектрі контенту і які мають бути корисними для широкого спектру додатків. Найбільші моделі, які є сьогодні, такі як GPT-4 від OpenAI або Gemini від Google, потрапляють у цю категорію.
Розробники таких моделей зобов'язані дотримуватися законів ЄС про авторські права, надавати зведення контенту, який використовувався для навчання моделі, публікувати технічну документацію про те, як вона навчалася та оцінювалася, а також надавати документацію всім, хто включає ці моделі у власні продукти ШІ.
Штрафи за порушення закону ЄС про ШІ
Розміри штрафів прив'язані до річного глобального доходу компанії. Компанії, які впроваджують заборонені системи ШІ «неприйнятного ризику», можуть зіткнутися зі штрафом у розмірі до 35 млн євро або 7% від річного глобального доходу, залежно від того, що більше.
Перша реакція гравців ринку ШІ на AI Act
Представник компанії Meta заявив: «Ми вітаємо гармонізовані правила ЄС, які гарантують відповідальну розробку та впровадження ШІ. З самого початку ми підтримували заснований на ризиках, нейтральний щодо технологій підхід Єврокомісії та відстоювали необхідність у структурі, яка сприяє та заохочує відкриті моделі ШІ та відкритість у ширшому сенсі. Вкрай важливо не забувати про величезний потенціал ШІ для сприяння європейським інноваціям та забезпечення конкуренції, і відкритість тут є ключовим фактором».
У корпоративному блозі компанії OpenAI з'явився запис, у якому йдеться: «OpenAI прагне дотримуватися Закону ЄС про ШІ, і ми тісно співпрацюватимемо з новим Управлінням ЄС з ШІ у міру впровадження закону. Найближчими місяцями ми продовжимо підготовку технічної документації та інших посібників для постачальників і розробників наших моделей GPAI, одночасно підвищуючи безпеку та захищеність моделей, які ми надаємо на європейському ринку і за його межами».