Международная коалиция, состоящая из более чем 90 политических и правозащитных групп опубликовала открытое письмо, в котором призвала Apple отказаться от интеграции анализа фотографий CSAM в свои продукты.
Хотя эти возможности предназначены для защиты детей, мы обеспокоены, что они будут использоваться для цензуры общения. Такой подход может привести к катастрофическим последствиям.
Отрывок из письма.
В публикации также содержится критика новых функций iMessage для семейных аккаунтов. Кто пропустил, напомним — если ребёнку на iPhone будет приходить сообщения с обнажёнными фотографиями, iMessage будет автоматически их размывать.
А родителям поступят уведомление, о том, что к ребёнку на телефон пришли такие снимки. Просмотреть такие фото ребёнок может только с подтверждения родителей.
В тему: Бояться не надо? Разбираем, как Apple будет сканировать ваши фото на айфоне, искать запрещёнку и даже докладывать в органы
Так вот, критикующие стороны считают, что это может усугубить взаимоотношение детей с родителями, а также помешать тем, кто использует такие изображения в образовательных целях.
Некоммерческая организация Center for Democracy & Technology (CDT) опасается, что шансы CSAM предоставить бэкдор политикам для осуществления репрессий слишком велики.
Как только CSAM будет встроена в большинство iPhone, органы власти в некоторых странах однозначно попытаются заставить Apple осуществлять поиск «неугодного» контента и учётные записи «неугодных» лиц.
В данном случае речь идёт не про поиск фотографий, на которых изображено насилие над детьми.
Большинство правозащитных групп, подписавших письмо, находятся в Индии, Мексике, Германии, Аргентине, Гане и Танзании.
Также поддержку проявили: Американский союз гражданских свобод, Electronic Frontier Foundation, Access Now, Privacy International и Tor Project.
Apple заявляет, что ни при каких обстоятельствах не будет давать доступ к технологии NeuralHash и CSAM третьим лицам. [MacRumors]
Источник: