Apple реагирует на мнимые проблемы конфиденциальности новой функции сканирования фотографий CSAM

Photos-iOS-15-The-Apple-Post-960x640

На прошлой неделе Apple анонсировала пару новых функций, направленных на обеспечение безопасности детей, в том числе уведомления iMessage, которые предупреждают детей и родителей о том, что изображение сексуального характера было отправлено или получено на подключенном к iCloud Family Sharing устройстве, автоматическое размытие отправленных в сообщениях откровенных изображений, материалах о сексуальном насилии над детьми, обнаружение технологией CSAM откровенных изображений в библиотеке фотографий iCloud пользователя и многое другое.

Однако вот после анонса новой системы, Apple последовало письмо, которое ссылается на проблему с конфиденциальностью пользователей. Apple не растерялась и незамедлительно опубликовала новый документ с часто задаваемыми вопросами, чтобы внести ясность и прозрачность в ту самую систему CSAM – «расширенную защиту детей».

«Мы хотим защитить детей от маньяков, которые используют средства коммуникации для вербовки и эксплуатации, а также ограничить распространение материалов о сексуальном насилии над детьми (CSAM). С тех пор, как мы объявили об этих функциях, многие заинтересованные стороны, включая организации, занимающиеся вопросами конфиденциальности и безопасности детей, выразили свою поддержку нашего решения», – говорится в документе, добавляя, что компания также получила вопросы о новых функциях, на которые она скоро ответит.

В документе подчеркивается, что безопасность связи в iMessage доступна только для созданных как семьи в iCloud  учетных записей, и что сканирование фотографий CSAM применяется только к тем фотографиям, которые пользователь выбирает для загрузки в Фото iCloud, и не работает для пользователей с отключенными фотографиями iCloud.

См. Полный документ Apple о расширенной защите детей здесь.

Отвечая на переживания по поводу того, что правительства вынуждают Apple добавлять не относящиеся к CSAM изображения в список обнаружения, компания заявляет, что откажется от любых таких требований, отметив, что функция обнаружения CSAM построена исключительно для обнаружения известных изображений CSAM, хранящихся в фотографиях iCloud, которые были идентифицированы экспертами NCMEC и других групп по безопасности детей.

iphone-communication-safety-feature


 

Теги:


10 августа 2021