doi: 10.17586/2226-1494-2016-16-2-251-257


УДК 535.8, 681.7, 004.93ꞌ1, 004.932.2

ИСПОЛЬЗОВАНИЕ ЭФФЕКТА ПРОДОЛЬНОЙ ХРОМАТИЧЕСКОЙ АБЕРРАЦИИ ДЛЯ ИЗМЕРЕНИЯ РАССТОЯНИЙ ПО ЕДИНСТВЕННОЙ ФОТОГРАФИИ

Волкова М.А., Луцив В.Р.


Читать статью полностью 
Язык статьи - русский

Ссылка для цитирования: Волкова М.А., Луцив В.Р. Использование эффекта продольной хроматической аберрации для измерения расстояний по единственной фотографии // Научно-технический вестник информационных технологий, механики и оптики. 2016. Т. 16. № 2. C. 251–257. doi:10.17586/2226-1494-2016-16-2-251-257

Аннотация

Предмет исследования. Предложен метод измерения расстояния до поверхностей сфотографированных объектов на основе использования эффекта продольной хроматической аберрации. В связи с этим эффектом фокусное расстояние линзы зависит от длины волны преломляемого света, поэтому степень расфокусировки сформированного линзой изображения определяется не только расстоянием плоскости изображения от линзы, но и тем, в каком цветовом диапазоне (красном, зеленом или синем) была сделана фотография. Метод. Предложенный метод измерения расстояния основывается на сопоставлении степени расфокусировки изображения для различающихся длин волн (например, красный и синий цвет). Сопоставление выполняется в области пространственных частот на основе анализа комплексных спектрограмм изображения (Фурье-спектра, локально рассчитываемого внутри окна, сканирующего изображение). С помощью локального анализа пространственного спектра расстояние до каждой точки сфотографированных поверхностей рассчитывается в аналитической форме, используемая при этом модель пятна рассеяния точки описывается функцией Гаусса. Основные результаты. Работоспособность метода измерения дальности частично подтверждена на основе имитации расфокусировки изображений перемещением объектива относительно световоспринимающей матрицы камеры. Представленный анализ хроматических свойств традиционно применяемых оптических материалов также подтверждает его физическую реализуемость. Предложена методика измерения дальности на основе реально различающейся степени дефокусировки изображений в разных цветовых каналах, использующая специальную калибровку применяемой электронно-оптической системы. Практическая значимость.Предложенный метод измерения дальности может быть полезен в ситуациях, исключающих возможность активной подсветки (облучения) фотографируемых объектов, и при создании дешевых и компактных оптических измерительных устройств, подобных KinectforXbox-360.


Ключевые слова: продольная хроматическая аберрация, измерение расстояния, комплексная спектрограмма, расфокусировка изображения, формула линзы, функция рассеяния точки, калибровка оптической системы

Благодарности. Работа выполнена при поддержке Министерства образования и науки Российской Федерации и частично при государственной поддержке ведущих университетов Российской Федерации (субсидия 074-U01).

Список литературы

1. Krizhevsky A., Sutskever I., Hinton G.E. ImageNet classification with deep convolutional neural networks // Advances in Neural Information Processing Systems. 2012. V. 2. P. 1097–1105.
2. Szeliski R. Computer Vision: Algorithms and Applications.Washington: Springer, 2011. 812 p. doi: 10.1007/978-1-84882-935-0
3. Kamencay P., Breznan M., Jarina R., Lukac P., Zachariasova M. Improved depth map estimation from stereo images based on hybrid method // Radioengineering. 2012. V. 21. N 1. P. 79–85.
4. Chaudhuri S., Rajagopalan A.N. Depth from Defocus: A Real Aperture Imaging Approach. Springer, 1999. 172 p. doi: 10.1007/978-1-4612-1490-8
5. Horn B.K.P. Obtaining shape from shading information / In: The Psychology of Computer Vision (P.H. Win-ston, Ed.). McGraw-Hill, 1975.
6. Marr, D. Vision. A Computer Investigation into the Human Representation and Processing of Visual Infor-mation. NY: W.H. Freeman and Company, 1982. 415 p.
7. Pentland A. A new sense for depth of field // IEEE Transactions on Pattern Analysis and Machine Intelli-gence. 1987. V. PAMI-9. N 4. Р. 523–531. doi: 10.1109/TPAMI.1987.4767940
8. Grossmann P. Depth from focus // Pattern Recognition Letters. 1987. V. 5. N 1. P. 63–69. doi: 10.1016/0167-8655(87)90026-2
9. Zhuo S., Sim T. On the recovery of depth from a single defocused image // Lecture Notes in Computer Sci-ence. 2009. V. 5702. P. 889–897. doi: 10.1007/978-3-642-03767-2_108
10. Tang C., Hou C., Song Z. Defocus map estimation from a single image via spectrum contrast // Optics Let-ters. 2013. V. 38. N 10. P. 1706–1708. doi: 10.1364/OL.38.001706
11. Saxena A., Chung S.H., Ng A.Y. 3-D depth reconstruction from a single still image // International Journal of Computer Vision. 2008. V. 76. N 1. P. 53–69. doi: 10.1007/s11263-007-0071-y
12. Eigen D., Puhrsch C., Fergus R. Depth map prediction from a single image using a multi-scale deep network // Advances in Neural Information Processing Systems (NIPS 2014). Montreal, Canada, 2014. P. 2366–2374.
13. Бегунов Б.Н., Заказнов Н.П. Теория оптических систем. М.: Машиностроение, 1973. 488 с.
14. Чуриловский В.Н. Теория оптических приборов. Л.: Машиностроение, 1966. 565 с.
15. Tisse C.-L., Nguyen H. P., Tessieres R., Pyanet M., Guichard F. Extended depth-of-field using sharpness transport across color channels // Proc. SPIE. 2008. V. 7061. Art. 706105. doi: 10.1117/12.793826
16. Walker B. Optical Engineering Fundamentals. 2nd ed. Bellingham, WA: SPIE Press, 2008. 277 p.
 



Creative Commons License

This work is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License
Информация 2001-2024 ©
Научно-технический вестник информационных технологий, механики и оптики.
Все права защищены.

Яндекс.Метрика