Apple не будут смотреть частные фото на iPhone: произошло недоразумение из-за анонса новых функций
Старший вице-президент Apple по разработке программного обеспечения Крейг Федериги объяснил ситуацию анонсированной функции усиления защиты детей от насилия.
Об этом Федериги заявил в интервью изданию Wall Street Journal, передает Громадское.
Он отметил, что никто не будет пересматривать частные фото пользователей на наличие там детской порнографии. Путаница произошла из-за анонса введения двух отдельных новых функций.
В частности, компания готовит введение двух инструментов: функции определения контента с сексуальным насилием над детьми в облачном хранилище iCloud и функции, которая отвечает за оповещение родителей о получении и отправке фотографий сексуального характера с устройства ребенка.
Так, первый инструмент может идентифицировать уже известные материалы о сексуальном насилии над детьми (CSAM). Эта функция будет работать только с фотографиями, которые загружаются в iCloud. То есть, если владелец iPhone отключает загрузку фото в облачное хранилище, защитная функция автоматически отключается.
Кроме того, само фото будут проверять на совпадение так называемых отпечатков нелегальных фото. Национальный центр США по делам без вести пропавших и эксплуатируемых детей (NCMEC) ведет базу данных известных незаконных изображений жестокого обращения с детьми. Эти данные сохраняют именно в форме цифровых «отпечатков» нелегального материала.
Сейчас уже несколько крупных платформ ㅡ Facebook, Google и Microsoft ㅡ проверяют изображения на соответствие этим данным, чтобы убедиться, что люди не распространяют CSAM.
Apple решила внедрить подобный процесс, но заявила, что сначала сделает соответствие изображений на iPhone или iPad пользователя, прежде чем загрузить его в iCloud.
Федериги заявил, что компания не будет проверять в iPhone фотографии пользователей вроде детей в ванне или искать порнографию. Система будет искать именно соответствие с цифровыми «отпечатками». Если такие найдутся ㅡ аккаунт пользователя обозначат, чтобы можно было просмотреть конкретные изображения устройства. Но перед тем, как это все же сделают, пользователь должен загрузить около 30 таких фото.
Другая функция, которую вводит Apple, касается фильтрации сообщений. В частности, это будет «родительский контроль», который пользователи могут активировать в учетных записях своих детей.
Эта функция позволит проверять фотографии, присланные ребенком или ребенку, через приложение Apple iMessage. Если на фото в сообщении обнаружит голое тело, его автоматически «размоют» и появится соответствующее предупреждение. Если ребенок нажмет «пересмотреть» такое фото, родители получат об этом уведомление.
Напомним, компания Apple обнародовала планы по сканированию изображений на iPhone пользователей в США на предмет сексуального насилия над детьми.
Отмечалось, что инструмент «NeuralHash», предназначенный для обнаружения известных изображений сексуального насилия над детьми, будет сканировать изображения перед их загрузкой в iCloud. Кроме того, Apple планировал сканировать зашифрованные сообщения пользователей на предмет откровенного сексуального характера в качестве меры безопасности для детей.
Такие решения насторожили сторонников конфиденциальности. В ответ компания получила волну критики от пользователей, должностных лиц и даже собственных сотрудников.