Компания Apple заявила о том, что откладывает предоставление функций сканирования личных фото после негативной реакции пользователей на первоначальное объявление.

«В прошлом месяце мы объявили о планах по созданию функций, призванных помочь защитить детей от преступников, использующих средства коммуникации для их вербовки и эксплуатации, а также ограничить распространение материалов о сексуальном насилии над детьми», — говорится в заявлении Apple.

«Основываясь на отзывах клиентов, правозащитных групп, исследователей и других мы решили уделить дополнительное время в ближайшие месяцы, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти критически важные функции для безопасности детей», — добавили в компании.

Нет никаких подробностей ни о том, как компания может консультироваться для «сбора информации», ни с кем она будет работать.

Первоначально Apple объявила о своих новых функциях CSAM 5 августа 2021 года, заявив, что они появятся «позже в 2021 году». Эти функции включают обнаружение изображений сексуального насилия над детьми, хранящихся в iCloud Photos, и, отдельно, блокировку потенциально опасных сообщений, отправляемых детям.

Эксперты отрасли ответили открытым письмом, в котором просили Apple не реализовывать эти функции. Возражение состоит в том, что считалось, что эти функции могут использоваться для слежки.

Затем компания Apple опубликовала разъяснение, в котором подробно описывались ее намерения и в общих чертах описывалось, как эти функции должны работать. Однако жалобы продолжались. Крейг Федериги из Apple в конце концов публично заявил, что Apple неверно оценила способ анонса новых функций.

«Мы хотели бы, чтобы это стало понятнее для всех, потому что мы очень позитивно и решительно относимся к тому, что мы делаем, но мы видим, что это неправильно понимается», — сказал Федериги.

Источник: НВ