Mit и бой с отражением

Любой современный фотолюбитель, являйся он приверженцем мобильной фотографии, либо почитателем хороших камер, множество раз на своем опыте сталкивался с трудностями получения хорошего кадра через оконное стекло. какое количество классных, а часто и неповторимых моментов было потеряно объективами отечественных камер из-за проклятущего отражения?

Да, кое-какие фотографы с переменным успехом пробуют применять его в качестве художественного приема, додающего снимку новый смысл и глубину. Но, как показывает опыт, в 99.9% случаев оно – нежелательный артефакт, талантливый сломать возможно шедевральный кадр. Увы, до сегодняшнего момента никому не получалось победить в неравной схватке с реалиями физических законов. И оптики в частности.

Но группу неугомонных исследователей из MIT, Гугл и Микрософт это не остановило.

Как все мы знаем, в базе любого цифрового фото-эффекта и фильтра лежить какой-либо математических метод. Не стала исключением и битва с отражениями. Как информирует сайт MIT, сейчас учеными и разными научно-исследовательскими группами было перепробовано множество возможных способов побороть ненавистный оптический артефакт.

Среди них – поляризация видимого света, вариативное фокусное расстояние и другие. Но все они претерпели неудачу.

Mit и бой с отражением

Пример работы поляризационного фильтра

Одновременно с этим, последовательность экспертов обратил внимание сообщества на тот факт, что любой лист стекла создаёт не одно отражение объекта, но два. С маленьким смещением относительно друг друга. По одному на каждую поверхность. И бороться необходимо не с одним, но с двумя артефактами соответственно. Этот постулат и послужил ключем к предстоящей совместной работе ученых MIT, Гугл Микрософт.

Сущность разработке содержится в сочетании аппаратных датчиков и ставшего хорошим в мире современной электроники преобразования Фурье.

Дискретное преобразование Фурье

“Металлическая” сторона вопроса несёт ответственность за измерение расстояния до объектов в кадре методом отслеживания времени, нужного отраженному ими свету чтобы достигнуть сенсора. В ранних, экспериментальных моделях, призванных подтвердить либо опровергнуть состоятельность концепции, использовались дорогие, сверхбыстрые датчики ценой в пара тысяч долларов любой.

Но уже на данный момент исследователи перешли на простые и дешёвые сенсоры глубины изображения, массово использующиеся в игровых аксессуарах. В частности, в Микрософт Kinect. Кроме того они разрешают добиться достаточной для использования на практике точности.

Но, количество объектов в кадре возможно таковым, что аппаратное вычисление расстояния до каждого из них может занять непозволительное для получения резкого кадра время.

Кто бы имел возможность поразмыслить, что он станет ключом в победе над отражениями?

В этот самый момент на помощь приходит математика. А правильнее то самое преобразование Фурье, помогающее раскладывать любой сигнал на его частотные составляющие. Каждая такая частотная компонента со своей стороны владеет двумя чертями – амплитудной и фазовой.

Метод, предложенный учеными, отфильтровывать те частотные составляющие, фаза которых, не обращая внимания на аналогичную амплитуду, отличается. Именно это и имеется ключом к математическому определению отраженного и “изначального” изображений. Убрать же первое по окончании его “расшифровки” делается делом техники.

Пример работы метода

Как не так долго осталось ждать предложенная исследователями разработка будет внедрена в серийное производство и доберется до конечного потребителя? Ответа на данный, ключевой для многих фотографов вопрос, к сожалению еще нет. Но предварительные результаты обнадеживают и говорят о правильности выбранного пути. Что разрешает сохранять надежду на очень своевременный коммерческий запуск аналогичных ответов как в мобильных, так и в профессиональных рынках .

До скорого!

Если вы нашли неточность, прошу вас, выделите фрагмент текста и надавите Ctrl+Enter.

Увлекательные записи:

Прилепин показал видео боя с украинскими силовиками


Комментарии и уведомления в настоящее время закрыты..

Комментарии закрыты.