ESTIMACIÓN DE LA DISTANCIA A UN OBJETO CON VISIÓN COMPUTACIONAL

  • Jorge Benjamín Magaña Zaldívar Instituto Tecnológico Superior de Motul
  • José Ramón Atoche Enseñat Instituto Tecnológico de Mérida
  • Julio César Molina Céspedes, Universidad Politécnica de Yucatán
  • Eunice Alejandra Pérez Coello Instituto Tecnológico de Mérida
  • Magnolia Alejandra Blanco Valdez Instituto Tecnológico de Mérida
Palabras clave: visión computacional, algoritmo SURF, estimación de distancia.

Resumen

En robots manipuladores, poder determinar la distancia exacta donde se encuentra el objeto a manipular, es una tarea de vital importancia. El presente artículo propone un nuevo algoritmo capaz de estimar la distancia de un robot manipulador a un objeto a manipular, utilizando una sola cámara. Se presentan los aspectos matemáticos utilizados para determinar el algoritmo, la descripción del experimento utilizado y las pruebas realizadas al algoritmo con 4 objetos de uso cotidiano. Para las pruebas se utilizó la imagen de cada uno de los objetos tomadas a 40.5cm como referencia y se emparejaron con las 26 imágenes de los mismos objetos tomadas a diferentes distancias en un entorno controlado. Los resultados muestran que el algoritmo propuesto puede ser utilizado para estimar la distancia de los cuatro objetos, logrando la estimación de la distancia en el 96.1% de las imágenes procesadas. Se concluye que es posible utilizar una sola cámara para estimar la distancia a un objeto con un error promedio de 0.99% y una desviación estándar de 0.1% de la distancia.

Biografía del autor

Jorge Benjamín Magaña Zaldívar, Instituto Tecnológico Superior de Motul
Profesor del Instituto Tecnológico Superior de Motul, Ingeniería Electrónica
José Ramón Atoche Enseñat, Instituto Tecnológico de Mérida

Profesor del Instituto Tecnológico de Mérida, Maestría en Ingeniería.

Julio César Molina Céspedes,, Universidad Politécnica de Yucatán
Profesor de la Universidad Politécnica de Yucatán
Eunice Alejandra Pérez Coello, Instituto Tecnológico de Mérida
Profesor del Instituto Tecnológico de Mérida, Maestría en Ingeniería.
Magnolia Alejandra Blanco Valdez, Instituto Tecnológico de Mérida
Profesor del Instituto Tecnológico de Mérida, Maestría en Ingeniería.

Citas

Akhlaq, M. U., Izhar, U., & Shahbaz, U. (2014). Depth estimation from a single camera image using power fit. In Robotics and Emerging Allied Technologies in Engineering (iCREATE), 2014 International Conference on. IEE, 221-227.

Albán, W. R. (7 de Abril de 2014). Detección y descripción de puntos característicos en imágenes multiespectrales utilizando esquemas clásicos. Recuperado el Noviembre de 2015
Andrade Moreira, G. A. (2015). Correspondencia multiespectral en el espacio de Hough. GUAYAQUIL – ECUADOR.

Bauer, J., Sünderhauf, N., & Protzel, P. (2007). Comparing several implementations of two recently published feature detectors. In Proc. of the International Conference on Intelligent and Autonomous Systems.

Bay, H., Ess, A., Tuytelaars, T., & Gool, L. V. (2008). SURF: Speeded Up Robust Features. Computer Visión and Image Understanding (CVIU), 110(3), 346-359.

Gamero, M. (2007). Posicionamiento de Robots Basados en Visión. Universidad, Ciencia y Tecnologia,, 11(43), 98-101.

García Barquero, I., Sánchez González, P., Luna Serrano, M., & Gómez Aguilera, E. J. (2012). Comparación de algoritmos detectores de puntos singulares para reconocimiento de objetos en vídeo quirúrgico.

González, G., E. J., Cruz, R., Sergio, R., Durán, G., & Héctor, M. (2001). Aplicación de sensores múltiples para el posicionamiento tridimensional de robots usando visión. Interciencia, 11(26), 541-546.

Gramani, M. M., Jain, S., Kariappa, S., M., S., & Chandrashekar. (2016). Object Recognotion Using ASIFT Algorithm. 3rd National Conference on Emerging Trends in Electronics and Communication (NCETEC-16).

Hernandéz, E. R. (2001). Desarrollo de un Sistema de Visión para la Localización y Navegación de Robots Humanoides. México.

Hu, S., Wu, N., & Song, H. (2012). Object Tracking Method Based on SURF. Conference on Modelling, Identification and Control, 351-356.

Ilbay, Ñ., Fabricio, M., Córdova, T., & Gonzalo, L. (2013). Análisis De Eficiencia En Algoritmos De Reconocimiento De Imágenes Digitales Aplicables A Dispositivos Móviles Bajo La Plataforma Android. (Doctoral dissertation, Universidad de las Fuerzas Armadas ESPE. Carrera de Ingeniería en Sistemas e Informática.

Lee, Y. H., Ahn, H., Cho, H. J., & Lee, J. H. (2015). Object Recognition and Tracking based on Object Feature Extracting., 5(3), 48-57. Journal of Internet Services and Information Security (JISIS), 5(3), 48-57.

Liaquat, S., & Khan, U. S. (2015). Object detection and depth estimation of real world objects using single camera. 2015 Fourth International Conference on (págs. 1-4). IEEE.

Luis, M. A. (2008). Introducción a la Fotografia Científica. Recuperado el 20 de Septiembre de 2016, de http://foto.difo.uah.es/curso/objetivo_e_imagenes.html

Magaña, J., Atoche, J., & Canche, R. (2015). Pruebas del algoritmo surf para la elección de imágenes de referencia. Revista Electrónica de Divulgación de la Investigación, 10.

Maridalia, G. P. (2011). A Comparative Study of Three Image Matcing Algorithms: Sift, Surf, and Fast. Logan, Utah.

Minglei, T., & Shudong, C. (Octubre de 2014). Efficient Surf Tracking by Nearest Neighbor Classifier. JOURNAL OF COMPUTERS,, 9(10), 2449-2454.

Mondéjar, G. V. (31 de mayo de 2016). Contribuciones a la estimaciónn de pose de cámara. Córdoba.

Prietoa, C. E., Febresa, J. E., Cerrolazaa, M., & Miquelarenab, R. (2010). Sistema de Visión Artificial para el Control de Movimiento de un Asistente Robótico Médico. Mecánica Computacional, 29, 6619-6629.

Reza, O., & Farshad, T. (septiembre de 2012). Full Object Boundary Detection By Applying Scale Invariant Features In A Region Merging Segmentation Algorithm. International Journal of Artificial Intelligence & Applications (IJAIA), 3(5), 41-50.

Romero Cortijo, A. M., & Cazorla Quevedo, M. Á. (2009 ). Comparativa de detectores de características visuales y su aplicación al SLAM. X WORKSHOP DE AGENTES FÍSICOS, 55-62.

Zavala, J. G., Hernández, J. A., & Freyre, J. P. (Octubre de 2012). Implementación de un sistema de visión para control de un brazo robótico. Actas de la II Conferencia de Desarrollo Profesional en Ingeniería Mecatrónica 2012. México. Recuperado el 30 de Noviembre de 2015, de http://pistaseducativas.itc.mx/wp-content/uploads/2012/10/7-ZAVALA-PE-99-87-101.pdf
Publicado
2017-10-17
Sección
Artículos de Investigación