Новые планы Apple по сканированию фото на смартфонах будут противодействовать распространению детского порно. Однако эти новости вызывают протесты защитников приватности.
Почему у Apple решили искать опасный контент
Компания Apple сообщила о новых шагах, направленных на защиту детей и контента с ними. Этот анонс вызвал активное обсуждение среди технологических экспертов, ведь едва ли не впервые фирма, которая давно декларирует уважение к приватности своих пользователей и их данным, откровенно заявила о внедрении технологий сканирования контента. И хотя никто не сомневается в важности таких инструментов и необходимости защиты детей и от вредного контента, и от распространения фотографий с их изображениями, эти планы Apple назвали ужасными с точки зрения их потенциального использования, в частности, властями разных стран с целью преследования граждан.
Проблема контента с изображением детей неприемлемого содержания, чаще всего — примеры сексуальной эксплуатации детей, становится серьезней с каждым годом. По данным компании Thorn, которая разрабатывает программное обеспечение для обнаружения изображений жестокого обращения с детьми, за последние несколько лет количество таких фотографий увеличилась на 15 000%. В то же время аналитики этой компании пришли к выводу, что более 20% подростков в возрасте от 13 до 17 лет присылали другому человеку свои обнаженные фото. Распространенность такой практики среди современных подростков не доказывает, что дети делают и пересылают эти снимки осознанно, понимая все риски и для собственной безопасности, и для будущей сексуальной эксплуатации. Также для решения таких проблем компания Apple анонсировала свои новые защитные инструменты.
Новые инструменты от Apple: осторожный анализ
В Apple рассказали, что компания планирует ввести ряд изменений в ее операционную систему iOS — они появятся в версии iOS 15, а затем и в операционной системе для ноутбуков macOS Monterey уже этой осенью.
Новая версия iOS получит специальные инструменты, которые смогут анализировать фотографии пользователей и находить среди них такие, которые могут считаться примерами сексуальной эксплуатации детей. Новые инструменты будут искать материалы, которые определяются как CSAM (child sexual abuse material) — контент сексуального насилия над детьми. Эти материалы будут искать в автоматическом режиме при загрузке фотографий в iCloud. В Apple подчеркивают, что компания не планирует запускать полное сканирование содержания iCloud.
В компании обещают, что анализ фото будет осуществляться частно на устройствах пользователей с применением нейронных сетей, которые перед тем прошли обучение на примере фотографий, предоставленных организацией в NCMEC — Национальным центром пропавших и эксплуатируемых детей (National Center for Missing & Exploited Children). Иными словами, нейросеть изучит известные фото с изображением случаев секс-эксплуатации детей и искать на устройствах пользователей их аналоги. Результат анализа будет храниться в зашифрованном виде (в виде набора хэшей), который будет сравниваться с предоставленной базой данных.
Если результат сравнения превысит определенный допустимый порог (что будет свидетельствовать о том, что фото пользователя похоже на фотопример детского порно), фотография станет подозрительной. Если таких снимков будет несколько и уровень сходства будет высокий, люди-операторы передадут информацию о необходимости расшифровки такого фото, то есть просмотра снимка-оригинала. Если система не ошиблась, и фото действительно окажется CSAM-контентом, информация будет передана в правоохранительные органы, к примеру, в NCMEC.
Что изменится в iMessage
Кроме анализа фотографий в iCloud, компания планирует применять анализ к снимкам, получаемым и пересылаемым в ее мессенджере iMessages. Анализ также будет осуществляться исключительно на устройстве пользователя. Родители детей до 13 лет могут включить опцию анализа фотографий, которые отправляются, в настройки семейного аккаунта Apple. В этом случае система сначала спросит, действительно ли ребенок хочет переслать этот файл другому пользователю. Если ребенок откажется, то больше никаких действий осуществляться не будет. Если согласится, то об этом будет сообщено родителям с одновременной пересылкой им фото. У ребенка до 13 лет доступ к этому фото больше не будет. Для детей в возрасте от 13 до 17 лет подозрительные фото будут сохраняться, но без оповещения родителей и их доступа к снимкам.
В компании считают, что такой подход позволит детям принимать более обоснованные решения — и держать родителей в курсе. Кроме того, эти функции будут доступны только на устройствах, которые являются частью семейной учетной записи iCloud.
Фотографии, которые получают несовершеннолетние пользователи, и которые определены как потенциально опасные, будут размываться. Родителям также будут сообщать, если их дети получают фотографии недопустимого содержания.
Продолжает ли Apple защищать приватность? Мнение «против»
Этот анонс от Apple вызвал возмущение защитников приватности. Хотя компания подчеркнула, что все будет происходить на устройстве пользователя, в условно замкнутой системе, тем не менее это повлекло разговоры об откровенном массовом наблюдении со стороны компании, которая всегда позиционировала себя как главного защитника приватности в мире незащищенных данных.
Financial Times цитирует профессора университета Кембриджа Росса Андерсона (Ross J. Anderson), который назвал планы Apple «ужасной идеей, которая открывает путь к массовому наблюдению за компьютерами и смартфонами», и подчеркнул, что эту систему легко адаптировать к поиску других рисунков, не связанных с детским порно, к примеру, таких, которые доказывают участие человека в уличных протестах. Профессор университета Джона Хопкинса Мэтью Грин (Matthew Green) сказал, что это решение Apple приближает нас к «миру 1984», имея в виду роман-антиутопию Джорджа Оруэлла.
Такое же мнение высказали представители Electronic Frontier Foundation в своем блоге, которые видят в таком шаге Apple реальную опасность того, что правительства уже в ближайшее время смогут сканировать разного рода содержание на наших устройствах в режиме реального времени, вызывая различные проблемы с правами человека. Это может начаться с требования сканировать содержимое террористов; само определение «терроризма» может со временем резко расшириться; а последствия для свободы слова могут быть критическими.
Реалии современного мира: как бороться с опасным контентом, сохраняя приватность?
На самом деле, правительства многих стран уже давно хотят залезть в аккаунты и устройства пользователей, пытаясь на законодательном уровне запретить инструменты шифрования, ведь те не позволяют читать переписку пользователей и создаваемый ими контент.
Одна из самых известных историй противостояния в этом направлении произошла еще в 2016 году и непосредственно касалась Apple, которую в судебном порядке ФБР пыталось заставить предоставить доступ к iPhone террориста из Сан-Бернардино, убившего 16 человек. Судебные иски продолжались несколько месяцев, и Apple смогла защитить в суде свою позицию, аргументируя ее тем, что она не может предать доверие своих клиентов, уверенных в защите собственных данных.
С тех пор подобных историй было много, а высказывания правительств разных стран пользовательского контента становились еще жестче.
Представляется, что в противостоянии технологических компаний и государств Apple определила свою позицию, которую продемонстрировала в новых анонсах по CSAM-контенту: компания планирует продолжать использовать сквозное шифрование, которое не позволит просматривать контент пользователей, но собственными силами будет сканировать этот контент исключительно на их устройствах.
Кейси Ньютон (Casey Newton) в своей рассылке Platformer называет этот шаг Apple важным и влияющим на всю отрасль.
«Закрывать глаза на сексуальную эксплуатацию детей в долгосрочной перспективе нельзя, особенно в современных масштабах. Хотя мы должны подождать, чтобы увидеть, как это работает на практике, на первый взгляд, это выглядит умным и вдумчивым».
Кейси Ньютон
автор рассылки The Platformer
Эксперт подчеркивает, что мы не будем полностью понимать последствия этих изменений, пока их не развернут по всему миру.