Apple подробнее рассказала про свой метод сканирования фото, выгружаемых в iCloud, с целью поиска сексуального насилия над детьми (CSAM).
Компания утверждает, что использует более безопасные технологии, чем другие организации. Разработанная система сканирует только фотографии, но не видео. Однако последнее может добавиться в будущем.
Все сопоставления выполняются на устройстве, при этом Apple преобразует базу данных фотографий из Национального центра по проблемам пропавших без вести и подвергающихся эксплуатации детей в «нечитаемый набор хэшей, который надежно хранится на устройствах пользователей».
Затем база данных на устройстве проверяется по снимкам, и происходит сопоставление на самом девайсе. Наконец, гаджет создает криптографический сертификат безопасности, который кодирует результат соответствия.
Купертиновцы отдельно отметили, что если юзер не выгружает фотографии в iCloud, то система не будет их сканировать. Другие компании используют удаленный анализ фотографий, поэтому они проверяют все снимки. Метод Apple предполагает только сравнение хэшей изображений с базой CSAM. [9to5]
Источник: