Apple не дивитиметься приватні фото на iPhone: сталося непорозуміння через анонс нових функцій

Старший віцепрезидент Apple з розробки програмного забезпечення Крейг Федерігі пояснив ситуацію щодо анонсованої функції посилення захисту дітей від насильства.

Про це Федерігі заявив в інтерв'ю виданню Wall Street Journal, передає Громадське.

Він зазначив, що ніхто не переглядатиме приватні фото користувачів на наявність там дитячої порнографії. Плутанина сталася через анонс введення двох окремих нових функцій.

Зокрема, компанія готує введення двох інструментів: функції визначення контенту із сексуальним насильством над дітьми у хмарному сховищі iCloud та функції, яка відповідає за сповіщення батьків про отримання та надсилання фотографій сексуального характеру з пристрою дитини.

Так, перший інструмент може ідентифікувати вже відомі матеріали про сексуальне насильство над дітьми (CSAM). Ця функція працюватиме тільки щодо фотографій, які завантажуються в iCloud. Тобто, якщо власник iPhone відключає завантаження фото у хмарне сховище, захисна функція автоматично вимикається.

Окрім того, саме фото перевірятимуть на збіг так званих відбитків нелегальних фото. Національний центр США у справах безвісти зниклих та експлуатованих дітей (NCMEC) веде базу даних відомих незаконних зображень жорстокого поводження з дітьми. Ці дані зберігають саме у формі цифрових «відбитків» нелегального матеріалу.

Наразі вже кілька великих платформ ㅡ Facebook, Google та Microsoft ㅡ перевіряють зображення на відповідність цим даним, щоб переконатися, що люди не поширюють CSAM.

Apple вирішила впровадити подібний процес, але заявила, що спершу зробить відповідність зображень на iPhone або iPad користувача, перш ніж завантажити його в iCloud.

Федерігі заявив, що компанія не буде перевіряти в iPhone фотографії користувачів на кшталт дітей у ванні або шукати порнографію. Система шукатиме саме відповідність із цифровими «відбитками». Якщо такі знайдуться ㅡ акаунт користувача позначать, щоб можна було переглянути конкретні зображення на пристрої. Але перед тим, як це все ж таки зроблять, користувач має завантажити приблизно 30 таких фото.

Інша функція, яку вводить Apple, стосується фільтрації повідомлень. Зокрема, це буде «батьківський контроль», який користувачі можуть активувати в облікових записах своїх дітей.

Ця функція дозволить перевіряти фотографії, надіслані дитиною або дитині, через додаток Apple iMessage. Якщо на фото у повідомленні буде розпізнано голе тіло, його автоматично «розмиють» і з'явиться відповідне попередження. Якщо дитина натисне «переглянути» таке фото, батьки отримають про це сповіщення.

Нагадаємо, rомпанія Apple оприлюднила плани щодо сканування зображень на iPhone користувачів у США на предмет сексуального насильства над дітьми.

Зазначалося, що інструмент «NeuralHash», призначений для виявлення відомих зображень сексуального насильства над дітьми, буде сканувати зображення перед їх завантаженням в iCloud. Крім того, Apple планував сканувати зашифровані повідомлення користувачів на предмет відвертого сексуального характеру, як захід безпеки дітей.

Такі рішення насторожили прихильників конфіденційності. У відповідь компанія отримала хвилю критики: від користувачів, посадовців та навіть власних співробітників.