Buscar en
Revista Iberoamericana de Automática e Informática Industrial RIAI
Toda la web
Inicio Revista Iberoamericana de Automática e Informática Industrial RIAI Creación de un modelo visual del entorno basado en imágenes omnidireccionales
Información de la revista
Vol. 9. Núm. 4.
Páginas 441-452 (Octubre - Diciembre 2012)
Compartir
Compartir
Descargar PDF
Más opciones de artículo
Visitas
3604
Vol. 9. Núm. 4.
Páginas 441-452 (Octubre - Diciembre 2012)
Open Access
Creación de un modelo visual del entorno basado en imágenes omnidireccionales
Construction of a visual model of the environment based on omnidirectional images
Visitas
3604
A. Gil
Autor para correspondencia
arturo.gil@umh.es
http://arvc.umh.es

Autor para correspondencia.
, D. Valiente, O. Reinoso, J.M. Marín
Universidad Miguel Hernández de Elche. Avda. de la Universidad s/n, Ed. Quorum V03202 Elche (Alicante), España
Este artículo ha recibido

Under a Creative Commons license
Información del artículo
Resumen
Texto completo
Bibliografía
Descargar PDF
Estadísticas
Resumen

En este artículo abordamos el problema de la construcción del mapa visual de un entorno mediante un robot móvil, ubicándose, por tanto, en el ámbito del problema de SLAM (Simultaneous Localization and Mapping). La solución presentada en este artículo se fundamenta en el uso de un conjunto de imágenes para representar el entorno. De esta manera, la estimación del mapa se plantea como el cálculo de la posición y orientación de un conjunto de vistas omnidireccionales obtenidas del entorno. La idea desarro- llada se separa de la concepción habitual de mapa visual, en la que el entorno estárepresentado mediante un conjunto de puntos tridimensionales definidos respecto de un sistema de referencia. En el caso presentado, se considera que el robot estáequipado con un único sensor visual omnidireccional que permite detectar un conjunto de puntos de interés de las imágenes que, a continuación, son representados mediante un descriptor visual. El proceso de construcción del mapa se puede resumir de la siguiente manera: cuando el robot se mueve por el entorno captura imágenes omnidireccionales y extrae un conjunto de puntos de interés de cada una de ellas. A continuación, se buscan correspondencias entre la imagen capturada y el resto de imágenes omnidireccionales existentes en el mapa. Si el nú mero de correspondencias encontradas entre la imagen actual y alguna de las imágenes del mapa es suficiente, se calcula una transformación consistente en una rotación y translación. A partir de estas medidas podemos deducir la localización del robot con respecto a las imágenes almacenadas en el mapa. Se presentan resultados obtenidos en un entorno simulado que validan la idea presentada. Además, se han obtenido resultados experimentales utilizando datos reales que demuestran la validez de la solución presentada.

Palabras clave:
SLAM
robótica móvil
visión omnidireccional
Abstract

This paper deals with the problem of Simultaneous Localization and Mapping (SLAM). The solution presented is based on the utilisation of a set of images to represent the environment. In this way, the estimation of the map considers the computation of the position and orientation of a set of omnidirectional views captured from the environment. The proposed idea sets apart from the usual representation of a visual map, in which the environment is represented by a set of three dimensional points in a common reference system. Each of these points is commonly denoted as visual landmark. In the case presented here, the robot is equipped by a single omnidirectional visual sensor that allows to extract a number of interest points in the images, each one described by a visual descriptor. The map building process can be summed up in the following way: as the robot traverses the environment, it captures omnidirectional images and extracts a set of interest points from each one. Next, a set of correspondences is found between the current image and the rest of omnidirectional images existing in the map. When the number of correspondences found is enough, a transformation is computed, consisting of a rotation and a translation (up to an unknown scale factor). In the paper we show a method that allows to build a map while localizing the robot using these kind of observations. We present results obtained in a simulated environment that validate the proposed idea. In addition, we present experimental results using real data that prove the suitability of the solution.

Keywords:
SLAM
mobile robotics
omnidirectional vision
Referencias
[Andrew et al., 2004]
Andrew J. Davison, A.J., Gonzalez Cid, Y., Kita, N., 2004. Improving data association in vision-based SLAM. In: Proc. of IFAC/EURON. Lisboa, Por- tugal.
[Aracil et al., 2008]
R. Aracil, C. Balaguer, M. Armada.
Robots de servicio.
RIAI (Revista. Iberoamericana de Automática e Informática Industrial), 5 (2008), pp. 6-13
[Ballesta et al., 2010]
M. Ballesta, A. Gil, O. Reinoso, D. Úbeda.
Análisis de detectores y descriptores de características visuales en slam en entornos interiores y ex- teriores.
RIAI (Revista Iberoamericana de Automática e Informática Indus- trial), 7 (2010), pp. 68-80
[Bay et al., 2006]
Bay, H., Tuytelaars, T., Van Gool, L., 2006. SURF: Speeded up robust features. In: Proc. of the ECCV. Graz, Austria.
[Bunschoten and Krose, 2003]
Bunschoten, R., Krose, B., 2003. Visual odometry from an omnidirectional vi- sion system. In: Proc. of the ICRA.
[Civera et al., 2008]
Civera, J., Davison, A.J., Martínez Montiel, J.M., 2008. Inverse depth para- metrization for monocular slam. IEEE Trans. on Robotics.
[Davison and Murray, 2002]
Davison, A.J., Murray, D.W., 2002. Simultaneous localisation and map- building using active vision. IEEE Trans. on PAMI.
[Gil et al., 2010]
Gil, A., Martinez-Mozos, O., Ballesta, M., Reinoso, O., 2010. A comparative evaluation of interest point detectors and local descriptors for visual slam. Machine Vision and Applications.
[Gil et al., 2006]
Gil, A., Reinoso, O., Martínez-Mozos, O., Stachniss, C., Burgard, W., 2006. Improving data association in vision-based SLAM. In: Proc. of the IROS. Beijing, China.
[Grisetti et al., 2007]
Grisetti, G., Stachniss, C., Grzonka, S., Burgard, W., 2007. A tree parameteri- zation for efficiently computing maximum likelihood maps using gradient descent. In: Proc. of RSS. Atlanta, Georgia.
[Harris and Stephens, 1988]
Harris, C.G., Stephens, M., 1988. A combined corner and edge detector. In: Proc. of Alvey Vision Conference. Manchester, UK.
[Hartley and Zisserman, 2004]
Hartley, R., Zisserman, A., 2004. Multiple View Geometry in Computer Vision. Cambridge University Press.
[Jae-Hean and Myung Jin, 2003]
Jae-Hean, K., Myung Jin, C., 2003. Slam with omni-directional stereo vision sensor. In: Proc. of the IROS. Las Vegas.(Nevada).
[Joly and Rives, 2010]
Joly, C., Rives, P., 2010. Bearing-only SAM using a minimal inverse depth parametrization. In: Proc. of ICINCO. Funchal, Madeira.(Portugal).
[Kawanishi et al., 2008]
Kawanishi, R., Yamashita, A., Kaneko, T., 2008. Construction of 3D environ- ment model from an omni-directional image sequence. In: Proc. of the Asia International Symposium on Mechatronics 2008. Sapporo, Japan.
[Lowe, 2004]
Lowe, D., 2004. Distinctive image features from scale-invariant keypoints. In- ternational Journal of Computer Vision.
[Montemerlo et al., 2002]
Montemerlo, M., Thrun, S., Koller, D., Wegbreit, B., 2002. Fastslam: a factored solution to the simultaneous localization and mapping problem. In: Proc. of the 18th national conference on Artificial Intelligence. Edmonton, Canada.
[Neira and Tardós, 2001]
Neira, J., Tardós, J.D., 2001. Data association in stochastic mapping using the joint compatibility test. IEEE Trans. on Robotics and Automation.
[Nister, 2003]
Nister, D., 2003. An efficient solution to the five-point relative pose problem. In: Proc. of the IEEE CVPR. Madison, USA.
[Nistér, 2005]
Nistér, D., 2005. Preemptive RANSAC for live structure and motion estimation. Machine Vision and Applications.
[Paya et al., 2009]
Paya, L., Fernández, L., Reinoso, O., Gil, A., Úbeda, D., 2009. Appearance- based dense maps creation: Comparison of compression techniques with pa- noramic images. In: 6th International Conference on Informatics in Control, Automation and Robotics ICINCO. Milan (Italy), pp. 250-255.
[Scaramuzza et al., 2009]
Scaramuzza, D., Fraundorfer, F., Siegwart, R., 2009. Real-time monocular vi- sual odometry for on-road vehicles with 1-point RANSAC. In: Proc. of the ICRA. Kobe, Japan.
[Scaramuzza et al., 2006]
Scaramuzza, D., Martinelli, A., Siegwart, R., 2006. A toolbox for easily cali- brating omnidirectional cameras. In: Proc. of the IROS. Beijing, China.
[Stachniss et al., 2004]
Stachniss, C., Grisetti, G., Haehnel, D., Burgard, W., 2004. Improved. Rao-Blackwellized mapping by adaptive sampling and active loop-closure. In: Proc. of the SOAVE. Ilmenau, Germany.
[Stewenius et al., 2006]
Stewenius, H., Engels, C., Nister, D., 2006. Recent developments on direct re- lative orientation. ISPRS Journal of Photogrammetry and Remote Sensing.
Copyright © 2012. Elsevier España, S.L.. Todos los derechos reservados
Opciones de artículo
Herramientas