Apple защищает свой способ сканирования фото, выгружаемых в iCloud. Он безопаснее других

Apple подробнее рассказала про свой метод сканирования фото, выгружаемых в iCloud, с целью поиска сексуального насилия над детьми (CSAM).

Компания утверждает, что использует более безопасные технологии, чем другие организации. Разработанная система сканирует только фотографии, но не видео. Однако последнее может добавиться в будущем.

Все сопоставления выполняются на устройстве, при этом Apple преобразует базу данных фотографий из Национального центра по проблемам пропавших без вести и подвергающихся эксплуатации детей в «нечитаемый набор хэшей, который надежно хранится на устройствах пользователей».

Затем база данных на устройстве проверяется по снимкам, и происходит сопоставление на самом девайсе. Наконец, гаджет создает криптографический сертификат безопасности, который кодирует результат соответствия.

Купертиновцы отдельно отметили, что если юзер не выгружает фотографии в iCloud, то система не будет их сканировать. Другие компании используют удаленный анализ фотографий, поэтому они проверяют все снимки. Метод Apple предполагает только сравнение хэшей изображений с базой CSAM. [9to5]

Источник: iphones.ru

Читайте также  Новые поддельные AirPods Pro почти не отличить от оригинала. Не попадитесь
Оцените статью
Бизнес Наука
Добавить комментарий