Apple стверджує, що програма не порушує законодавства про захист персональних даних. Фото: Apple
Компанія Apple відклала вихід інструментів для перевірки iPhone на наявність зображень з дитячою порнографією. Це зроблено на тлі побоювань з приводу того, що нове програмне забезпечення може піддати користувачів ризиків у сфері захисту персональних даних, написало видання MacRumors.
У повідомленні Apple йдеться, що їй буде потрібно додатковий час на доопрацювання плану, про який було оголошено в серпні. Компанія вдруге за рік відкладає вихід поновлення в зв'язку з критикою.
Вона планувала запустити систему, яка здатна розпізнавати зображення з дитячою порнографією, а потім сповіщати Apple в разі, якщо подібні зображення були завантажені до хмарного сервісу iCloud.
Apple стверджує, що її програма не порушує законодавства про захист персональних даних, і що інші провайдери хмарних сервісів, які прагнуть не допустити наявність подібних зображень, використовують технологію, яка сканує всі дані користувачів. А Apple знайшла спосіб аналізувати тільки той контент, який підпадає під поняття забороненого. Планована система не буде маркувати подібним чином контент, який не був завантажений до iCloud.
Контекст. Раніше The Page розповідало, як і чому Apple хоче сканувати ваші фотографії.