Нові плани Apple щодо сканування фото на смартфонах протидіятимуть поширенню дитячого порно. Проте ці анонси викликають протести захисників приватності.
Чому в Apple вирішили шукати небезпечний контент
Компанія Apple повідомила про нові кроки, спрямовані на захист дітей та контенту з ними. Цей анонс викликав активне обговорення серед технологічних експертів, адже чи не вперше фірма, яка давно декларує повагу до приватності своїх користувачів та їхніх даних, відверто заявила про впровадження технологій сканування контенту. І хоча ніхто не сумнівається у важливості таких інструментів та необхідності захисту дітей і від шкідливого контенту, й від поширення фотографій з їхніми зображеннями, ці плани Apple назвали жахливими з точки зору їхнього потенційного використання, зокрема, владами різних країн із метою переслідування громадян.
Проблема контенту із зображенням дітей неприйнятного змісту, найчастіше – приклади сексуальної експлуатації дітей, стає серйознішою з кожним роком. За даними компанії Thorn, яка розробляє програмне забезпечення для виявлення зображень жорстокого поводження з дітьми, за останні декілька років кількість таких світлин збільшилася на 15 000%. Водночас аналітики цієї компанії дійшли висновку, що понад 20% підлітків у віці від 13 до 17 років надсилали іншій людині свої оголені фото. Поширеність такої практики серед сучасних підлітків не доводить, що діти роблять та пересилають ці знімки усвідомлено, розуміючи всі ризики і для власної безпеки, і для майбутньої сексуальної експлуатації. Тож саме для вирішення таких проблем компанія Apple анонсувала свої нові захисні інструменти.
Нові інструменти від Apple: обережний аналіз
В Apple розповіли, що компанія планує запровадити низку змін у її операційній системі iOS — вони з’являться у версії iOS 15, а потім і в операційній системі для ноутбуків macOS Monterey уже цієї осені.
Нова версія iOS отримає спеціальні інструменти, які зможуть аналізувати фотографії користувачів та знаходити серед них такі, які можуть вважатися прикладами сексуальної експлуатації дітей. Нові інструменти шукатимуть матеріали, які визначаються як CSAM (child sexual abuse material), – контент сексуального насилля над дітьми. Ці матеріали шукатимуть в автоматичному режимі через завантаження фотографій в iCloud. В Apple підкреслюють, що компанія не планує запускати повне сканування вмісту iCloud.
У компанії обіцяють, що аналіз фотографій здійснюватиметься приватно на пристроях користувачів із застосуванням нейромереж, які перед тим пройшли навчання на прикладі фото, наданих організацією в NCMEC — Національним центром зниклих та експлуатованих дітей (National Center for Missing & Exploited Children). Іншими словами, нейромережа вивчить відомі фото із зображенням випадків секс-експлуатації дітей та шукатиме на пристроях користувачів їхні аналоги. Результат аналізу зберігатиметься в зашифрованому вигляді (у вигляді набору хешів), який порівнюватиметься з наданою базою даних.
Якщо результат порівняння перевищить певний допустимий поріг (що свідчитиме про те, що фото користувача схоже на фотоприклад дитячого порно), фотографія стане підозрілою. Якщо таких знімків буде декілька й рівень схожості високий, люди-оператори передадуть інформацію про необхідність розшифровки такого фото, тобто перегляд знімку-оригіналу. Якщо система не помилилась, і світлина дійсно виявиться CSAM-контентом, інформація буде передана до правоохоронних органів, до прикладу, в NCMEC.
Що зміниться в iMessage
Окрім аналізу фотографій в iCloud, компанія планує застосовувати аналіз до знімків, що отримуються та пересилаються в її месенджері iMessages. Аналіз також здійснюватиметься виключно на пристрої користувача. Батьки дітей до 13 років можуть увімкнути опцію аналізу фотографій, що надсилаються, в налаштуваннях сімейного акаунту Apple. У цьому разі система спочатку перепитає, чи дійсно дитина хоче переслати це фото іншому користувачу. Якщо дитина відмовиться, то більше ніяких дій не здійснюватиметься. Якщо погодиться, то про це буде повідомлено батькам з одночасною пересилкою їм фото. Дитина до 13 років доступ до цього фото більше не матиме. Для дітей у віці від 13 до 17 років підозрілі фото зберігатимуться, але без сповіщення батьків та їхнього доступу до знімків.
У компанії вважають, що такий підхід дозволить дітям приймати більш обґрунтовані рішення — і тримати батьків у курсі. Окрім того, ці функції будуть доступні лише на пристроях, які є частиною сімейного облікового запису iCloud.
Фотографії, які отримують неповнолітні користувачі, і які будуть визначені як потенційно небезпечні, розмиватимуться. Батьки також повідомлятимуться у випадках, якщо їхні діти отримуватимуть фото недопустимого змісту.
Чи продовжує Apple захищати приватність? Думка «проти»
Цей анонс від Apple викликав обурення захисників приватності. Хоча компанія підкреслила, що все відбуватиметься на пристрої користувача, в умовно замкненій системі, однак це спричинило розмови про відверте масове стеження з боку компанії, що завше позиціонувала себе як головного захисника приватності у світі незахищених даних.
Financial Times цитує професора університету Кембріджа Росса Андерсона (Ross J. Anderson), який назвав плани Apple «жахливою ідеєю, яка відкриває шлях до масового спостереження за комп’ютерами та смартфонами», та підкреслив, що цю систему легко адаптувати для пошуку інших зображень, не пов’язаних із дитячим порно, до прикладу, таких, які доводять участь людини у вуличних протестах. Професор університету Джона Хопкінса Мет’ю Грін (Matthew Green) сказав, що це рішення Apple наближує нас до «світу 1984», маючи на увазі роман-антиутопію Джорджа Оруела.
Таку ж думку висловили представники Electronic Frontier Foundation у своєму блозі, які вбачають у такому кроці Apple реальну небезпеку того, що уряди вже найближчим часом зможуть сканувати різного роду вміст на наших пристроях у режимі реального часу, викликаючи різноманітні проблеми з правами людини. Це може початися з вимоги сканувати вміст терористів; саме визначення «тероризму» може з часом різко розширитися; а наслідки для свободи слова можуть бути критичними.
Реалії сучасного світу: як боротися з небезпечним контентом, зберігаючи приватність?
Насправді, уряди багатьох країн уже давно хочуть залізти в акаунти та пристрої користувачів, намагаючись на законодавчому рівні заборонити інструменти шифрування, бо ті не дозволяють читати листування користувачів та створюваний ними контент.
Одна з найбільш відомих історій протистояння в цьому напрямку відбулася ще 2016 року і безпосередньо стосувалася Apple, яку в судовому порядку ФБР намагалося змусити надати доступ до iPhone терориста із Сан-Бернардіно, що вбив 16 людей. Судові позови тривали декілька місяців, і Apple змогла захистити в суді свою позицію, аргументуючи її тим, що вона не може зрадити довіру своїх клієнтів, впевнених у захисті власних даних.
З того часу подібних історій було багато, а висловлювання урядів різних країн щодо користувацького контенту ставали ще жорсткішими.
Видається, що у протистоянні технологічних компаній та держав Apple визначила свою позицію, яку продемонструвала в нових анонсах щодо CSAM-контенту: компанія планує продовжувати використовувати наскрізне шифрування, яке не дозволить передивлятися контент користувачів, але власними силами скануватиме цей контент виключно на їхніх пристроях.
Кейсі Ньютон (Casey Newton) в своїй розсилці Platformer називає цей крок Apple важливим і таким, який вплине на всю галузь.
«Закривати очі на сексуальну експлуатацію дітей у довгостроковій перспективі не можна, особливо в сучасних масштабах. Хоча ми повинні почекати, щоб побачити, як це працює на практиці, на перший погляд, це виглядає розумним і вдумливим».

Кейсі Ньютон
Автор розсилки The Platformer
Експерт підкреслює, що ми повністю не розумітимемо наслідки цих змін, поки вони не будуть розгорнуті по всьому світу.