Джейсон Кросс из Macworld рассказал, чего реально стоит ждать от процессора A13 в iPhone 11.
Новые процессоры будут построены по 7-нанометровому техпроцессу, так как 5-нм чипы просто не будут готовы в срок. Кросс полагает, что Apple будет использовать то же количество транзисторов, что и в A12X Bionic.
Причём компания не станет наращивать количество производительных ядер: их будет 2, как и в текущих процессорах. Плюс 4 энергосберегающих.
Apple, вероятно, будет полагаться на некоторые архитектурные изменения и, возможно, лучшие пиковые тактовые частоты для увеличения производительности процессора. В конце концов, чипы компании уже являются самыми быстрыми.
В последние годы прирост производительности процессоров Apple в одноядерном режиме был достаточно стабильным. Если тенденция сохранится, мы увидим оценку в Geekbench 4 в районе 5200.
— Джейсон Кросс
Многоядерную производительность прогнозировать сложнее, но она может достигать 15-16 тыс. очков. Тем самым, мы получаем мобильный процессор, обгоняющий по производительности любой Android-смартфон и большинство ультрабуков.
С другой стороны, GPU в новых айфонах не станет намного мощнее из-за ограничений пропускной способности. Так что новые чипы от Qualcomm могут опередить A13.
Но Apple может сделать упор не на графических возможностях, а перенаправить остаточные мощности в искусственный интеллект.
Кросс уверен, что компания намерена продолжать активно работать в направлении машинного обучения и обработки изображений.
В прошлом году Apple сделала Neural Engine в A12 намного мощнее, чем ожидалось.
Neural Engine в процессоре A11 может выполнять 600 миллиардов операций в секунду. A12 оказался примерно в восемь раз быстрее: 5 триллионов операций в секунду.
Я не уверен, что мы увидим столь большой скачок снова, но Apple вполне может добиться увеличения производительности в 3-5 раз благодаря некоторым улучшениям технического дизайна и гораздо большим бюджетом транзисторов.
Машинное обучение и искусственный интеллект – важнейшие составляющие iPhone: они используются от создания лучших фотографий и видео до дополненной реальности и Siri. Если бы Apple объявила, что Neural Engine в A13 может выполнять 20 триллионов операций в секунду, я был бы впечатлен, но не удивлен.
Процессор сигналов изображения, используемый для обработки данных с датчиков камеры, является еще одним критически важным компонентом, который сложно оценить, но Apple ежегодно вкладывает в него огромные средства.
Он используется в сочетании с Neural Engine и GPU для улучшения качества фотографий и видео. Apple улучшит его снова в этом году. Возможно, компания даже будет одной из первых, кто включит аппаратное обеспечение для кодирования и декодирования видеокодека AV1.
Если вы не знаете, что все это значит, просто знайте, что большинство видео в интернете (например, в YouTube), вероятно, перейдут на этот формат через пару лет. Он чрезвычайно эффективен.
Apple в последние годы делает большую ставку на нейросетях и машинном обучении. Вполне вероятно, что компания продолжит двигаться в этом направлении, делая iPhone умнее во всех аспектах. [9to5]
Источник: