Если вы следите за презентациями Apple, то знаете, что компания редко уделяет внимание характеристикам их устройств. Производитель больше сравнивает свою продукцию с конкурентами или рассказывает о результатах на практике (например, время воспроизведения видео вместо емкости аккумулятора).
Что касается камер, Apple предоставляет больше информации, но не дает сведений ни о производителе сенсора, ни о модели. Рассказываем, какие камеры используются в Айфонах, и почему они фотографируют так хорошо.
Кто производит камеры для Айфонов
Подробные данные о камере мы узнаем либо из тематических сайтов, либо от команд по разборке смартфонов. Благодаря маркировкам можно определить, какая модель используется в смартфоне. Например, 48-мегапиксельный сенсор для iPhone 14 Pro и версии Pro Max производит Sony.
Недавно это подтвердил CEO Apple, Тим Кук. Он посетил один из заводов японского гиганта, где заявил, что компании сотрудничают больше 10 лет, чтобы предоставить лучшие в мире датчики для Айфонов.
Использование решений Сони не является чем-то уникальным — большинство производителей мобильных устройств устанавливают серийные датчики производителя из Японии в смартфоны. Но не все компании тесно сотрудничают с Sony и создают кастомные сенсоры. Большинство берут готовые решения. Значит ли это, что кооперация Сони и Эпл позволила создать лучшую мобильную камеру на рынке? Не совсем.
Почему камера iPhone снимает лучше конкурентов
Возможно, Apple и Sony модифицируют сенсоры для iPhone, но лишь незначительно. Техническая доработка датчиков — не то, что позволяет снимать отличные фотографии на смартфон. Доступ к технологиям позволяет «яблочной» компании улучшать алгоритмы постобработки. Как в случае с iOS и «железом» Айфона, происходит обычная оптимизация.
Это объясняет, почему флагманский смартфон Sony, Xperia PRO-I фотографирует хуже прошлогоднего iPhone 13 Pro. Дело в том, что гаджет японского производителя «заточен» под ручные настройки и практически не использует постобработку.
Что до iPhone, благодаря нейронному движку Deep Fusion и Photonic Engine работает алгоритм:
● устройство делает 4 фото до пуска затвора и 4 — после (в совокупности 9 снимков);
● движок машинного обучения выбирает лучшие области со всех снимков и объединяет их в одно изображение;
● вместе с этим автоматически исправляется экспозиция, баланс белого, резкость и шумоподавление.
Если вы будете фотографировать на Sony, то сможете достичь результатов iPhone, но придется предварительно настроить камеру и самостоятельно «подкрутить» изображение в приложении вроде Lightroom. Такой подход мало кому подойдет — мобильная фотография больше про «достал и сфотографировал».
Какая перспектива развития камер iPhone? Судя по тому, что в Про-моделях 14-го поколения сенсор камеры был увеличен на 60%, ожидается, что в новых устройствах Apple сохранит эту тенденцию. Датчики будут «расти» в размерах, пока не приблизятся к уровню фотоаппаратов.