Компанія Apple відклала вихід інструментів для перевірки iPhone на наявність зображень з дитячою порнографією. Це зроблено на тлі побоювань з приводу того, що нове програмне забезпечення може піддати користувачів ризиків у сфері захисту персональних даних, написало видання MacRumors.

У повідомленні Apple йдеться, що їй буде потрібно додатковий час на доопрацювання плану, про який було оголошено в серпні. Компанія вдруге за рік відкладає вихід поновлення в зв'язку з критикою.
Вона планувала запустити систему, яка здатна розпізнавати зображення з дитячою порнографією, а потім сповіщати Apple в разі, якщо подібні зображення були завантажені до хмарного сервісу iCloud.
Apple стверджує, що її програма не порушує законодавства про захист персональних даних, і що інші провайдери хмарних сервісів, які прагнуть не допустити наявність подібних зображень, використовують технологію, яка сканує всі дані користувачів. А Apple знайшла спосіб аналізувати тільки той контент, який підпадає під поняття забороненого. Планована система не буде маркувати подібним чином контент, який не був завантажений до iCloud.
Контекст. Раніше розповідало, як і чому Apple хоче сканувати ваші фотографії.