Издание Reuters опубликовало комментарии некоторых сотрудников Apple по поводу внедрения функции CSAM в iOS 15. Информация была получена из рабочего чата в Slack, участники попросили не раскрывать своих имён.
Как оказалось, многие обеспокоены тем, что авторитарные государства могут в будущем заставить техно-компании использовать похожие алгоритмы для выявления «неугодных» лиц на фото.
Один из сотрудников сказал, что с прошлой недели, когда было объявлено о внедрении алгоритма, в Apple уже поступило более 800 сообщений об обнаружении фотографий, которые содержат жестокое обращение с детьми.
В тему: Бояться не надо? Разбираем, как Apple будет сканировать ваши фото на айфоне, искать запрещёнку и даже докладывать в органы
Однако часть опрошенных выражают поддержку в адрес этой функции, считая, что она действительно способна помочь в борьбе с распространением «незаконных материалов». [9to5Mac]
Источник: