Apple официально представила нейронный процессор A18 Pro, который станет сердцем новой линейки iPhone 16 Pro и iPhone 16 Pro Max. Чип изготовлен по 3-нанометровому техпроцессу второго поколения и включает 16-ядерную Neural Engine, способную выполнять до 35 триллионов операций в секунду — на 15% больше по сравнению с A17 Pro. Новый процессор получил шестиядерный CPU с двумя производительными и четырьмя энергоэффективными ядрами, а также шестиядерный GPU с аппаратной поддержкой трассировки лучей. Apple заявляет о росте производительности CPU на 15% и GPU на 20% относительно предыдущего поколения, при этом энергоэффективность улучшилась на 20%.
Ключевая особенность A18 Pro — расширенные возможности для запуска больших языковых моделей и генеративного ИИ непосредственно на устройстве. Увеличенная пропускная способность памяти и оптимизированная архитектура Neural Engine позволяют обрабатывать сложные AI-задачи без обращения к облачным сервисам, что критично для конфиденциальности данных. Чип поддерживает новые функции Apple Intelligence: усовершенствованную обработку фото и видео с помощью машинного обучения, улучшенное распознавание объектов в реальном времени, а также более продвинутые возможности голосового помощника Siri. Отдельно стоит отметить специализированные ускорители для диффузионных моделей, которые позволяют генерировать изображения прямо на смартфоне за считанные секунды.
Представление A18 Pro сигнализирует о важном сдвиге в стратегии Apple: компания делает ставку на гибридную AI-архитектуру, где критичные и персональные задачи решаются локально, а облако используется лишь для наиболее ресурсоёмких вычислений. Это создаёт прецедент для всей индустрии — конкуренты вынуждены будут усиливать on-device AI-возможности своих чипов. Интересно, что Apple не раскрыла точный объём кэш-памяти для Neural Engine, что может указывать на использование принципиально новой архитектуры работы с весами нейросетей. Если подход Apple окажется успешным, мы можем наблюдать фрагментацию рынка AI-сервисов: часть задач окончательно переместится на устройства пользователей, меняя экономику облачных AI-платформ.