Apple временно откажется от внедрения алгоритма сканирования снимков пользователей смартфонов iPhone на предмет сексуального насилия над детьми (CSAM).
Представитель Apple уточнил, что основываясь на отзывах пользователей своей продукции, компания решила взять дополнительное время, чтобы собрать больше информации для внесения необходимых улучшений.
В корпорации добавили, что всё равно считают алгоритм CSAM необходимым для защиты детей. Поэтому в любом случае стоит ожидать его внедрение, хоть и в неопределённый срок. Кстати, ранее оказалось, что Apple сканирует почту iCloud на наличие насилия над детьми с 2019 года.
Если вы всё-таки решите хранить свои фотографии на iPhone, стоит позаботиться о безопасности снимков и защитить их водяным знаком. Поможет в этом сервис Watermarkly. Доступен он в AppStore и Play Store.
Предыстория
В начале августа стало известно, что технология CSAM появится в «яблочных» гаджетах этой осенью с выходом операционных систем iOS 15, iPadOS 15, macOS Monterey и watchOS 8. Алгоритм должен был работать следующим образом:
- Сканировать изображения, отправленные и полученные в приложении «Сообщения». При обнаружении наготы снимок будет автоматически размыт, а пользователь будет предупрежден, что фотография может содержать частные части тела.
- Если ребенок младше 13 лет отправляет или получает подозрительное изображение, «родители получат уведомление», если устройство ребенка подключено к Family Sharing.
- Siri будет «вмешиваться», когда пользователи попытаются искать темы, связанные с сексуальным насилием над детьми.
Несмотря на утверждение компании о сохранении конфиденциальности, большинство владельцев «яблочных» гаджетов отнеслись к технологии CSAM крайне отрицательно.