Apple официально подтвердила, что нашумевший алгоритм CSAM последние два года сканирует исходящие и входящие письма в iCloud Mail на предмет насилия над детьми.
Поскольку электронные письма по умолчанию не зашифрованы, вложения, которые проходят через серверы Apple, не представляли большой проблемы для алгоритма CSAM. Компания также заявила, что просматривает и другие данные, но какие именно – неизвестно.
В интервью журналистам представители Apple подтвердили:
Подобно фильтрам спама в электронной почте, мы проверяем каждое совпадение. Учётные записи с контентом, на котором была замечены эксплуатация детей, нарушают наши условия предоставления услуг и подлежат блокировке.
Ранее стало известно, что Apple планирует сканировать фотографии пользователей на их собственных iPhone и iPad на предмет наличия детского порно. Несмотря на утверждение компании о сохранении конфиденциальности, большинство владельцев «яблочных» гаджетов отнеслись к технологии крайне отрицательно.