Элиот Андрес из Artizans наглядно показал разницу в производительности новых и старых айфонов. Это не обычный бенчмарк, он оценивает работу не основного процессора, а нейросетей.
Тестирование проходило в системе DeepLab, которая проводит семантическую сегментацию изображений.
Недавно Artizans создала приложение для анонимизации людей в режиме реального времени. Оно работает на базе DeepLab и архитектуры MobileNet:
We ran Deeplab with a MobileNet backbone, on a 513×513 image. It is a semantic segmentation network, returning a class for each pixel of the image. Running on mobile, it can lead to pretty interesting uses. We recently built a prototype to anonymize people in real time: pic.twitter.com/Qkj93QRrte
— Eliot Andres (@EliotAndres) September 20, 2019
Оказалось, что iPhone 11 обрабатывает чуть больше 20 изображений в секунду, тогда как iPhone X — 6. iPhone XR отстаёт лишь немного с показателем в 17,68 изображений в секунду.
График, отображающий количество обработанных нейросетями изображений в секунду
Количество обработанных нейросетями изображений в секунду
Новинки быстрее прошлогодних флагманов на 20% по скорости работы нейросетей. Непонятно только то, почему iPhone X так плохо справился с тестированием — в 3,5 раза хуже, чем iPhone XR. В нем тоже стоит отдельный вычислительный чип для нейросетей.
Разработчики могут протестировать производительность самостоятельно, нужен только этот код из GitHub.
Источник: