Как искусственный интеллект изменил мобильную фотографию

Как искусственный интеллект изменил мобильную фотографию

Можно смотреть на развитие технологий как со стороны «железок», так и со стороны софта. Думаем, что «железо» важнее ПО? Но это заблуждение. Без качественного софта аппаратное обеспечение становится бесполезным. Это касается не только процессоров, но и камер. Хороший модуль — это не залог качественных фотографий. Технически смартфоны ограничены в размерах, поэтому сегодня важен именно софт, отвечающий за обработку фотографий, а под софтом стоит понимать в том числе искусственный интеллект.

Идеально, когда софт улучшают совместно железом. Примером такого взаимодействия является технология компании Light. С помощью софта и множества камер, которые расположены под разным углом и имеют различное фокусное расстояние и другие характеристики, происходит магия. За этим определенно будущее, но пока мы остановимся лишь на софте.

Google Фото — это хороший пример работы AI. Google в 2013 году купила компанию DNNresearch, совместно с которой ей удалось натренировать нейросеть на основе изображении, вручную проанализированных обычными людьми. Например, перед нами фото озера, человек отмечает, что на фото озеро. В дальнейшем это фото пропускают через нейросеть, которая понимает, что перед ней озеро с помощью маркера и запоминает, как выглядит фотография.

Таким образом ребята обучили нейросеть, которая в облаке анализирует фотографии Google Фото и разбивает их на категории. Кроме того, за счёт постоянного распознавания нейросеть становится умнее, увеличивается точность, поэтому со временем стало возможной разбивка не по конкретным животным, например, а по типам объектов: «животные», «обед» и так далее.

Спустя год Apple выпустила аналогичное решение, но так как компания беспокоится о приватности, все фотографии анализирует не облачный сервис, а сам смартфон пользователя, который в течение дня производит разбивку на категории. И это лишь часть применения нейросети. Например, её применяют при создании эффекта размытия. Сначала нейросеть определяет объект в кадре, затем вторая камера создаёт карту глубины. Интересно это потому, что процесс распознавания человека в кадре происходит в реальном времени.

Но главным примером работы нейросети можно назвать различные режимы HDR. В случае с Google речь идёт об HDR+. Например, вот так фотографирует уже старый Google Pixel 2 XL благодаря нейросети (исходники):

Как искусственный интеллект изменил мобильную фотографию

Как искусственный интеллект изменил мобильную фотографию

Как искусственный интеллект изменил мобильную фотографию

Как искусственный интеллект изменил мобильную фотографию

Но еще более показательным является режим Night Sight на основе ИИ. Он анализирует фото и изменяет баланс белого и цвета, чтобы на выходе получился отличный результат. В последнее время компании стали использовать специальные процессоры, адаптированные под ИИ. В Apple A12 Bionic ИИ чип на 8 ядер! Неплохой рывок в этой области получился у Snapdragon 855, процессор в синтетических ИИ тестах сумел значительно обойти Snapdragon 845 и Kirin 980.

Вывод

Роль софта и ИИ растёт, а качество модуля камеры больше не так важно. Благодаря постоянному улучшению алгоритмов режимы на основе ИИ фотографируют всё лучше и лучше, поэтому в дальнейшем влияние софта в области камер будет лишь увеличиваться.

Мы в Telegram

Источник

Источник

Следующая новость
Предыдущая новость

Выбор кредита с длительным сроком погашения Нюансы бурения скважин в Солнечногорске Московской области Особенности бурения скважин в Сергиевом Посаде Картами по жизни: Взаимодействие и стратегии Как начать инвестировать в криптовалюту

Последние новости