Por favor, use este identificador para citar o enlazar este ítem:
https://hdl.handle.net/11000/5135
View-based SLAM in the 212 D Space with Omnidirectional Images and Feature Point Information
Título : View-based SLAM in the 212 D Space with Omnidirectional Images and Feature Point Information |
Autor : Valiente García, David |
Tutor: Reinoso García, Óscar Gil Aparicio, Arturo |
Departamento: Departamentos de la UMH::Ingeniería de Sistemas y Automática |
Fecha de publicación: 2016-10-03 |
URI : http://hdl.handle.net/11000/5135 |
Resumen : Mobile robotics has experienced an important proliferation in the recent days, with many fields of application available. A great variety of different mobile robots are present in different sectors of society, most of which are designated as autonomous. This term implies that the robot manages to operate itself, without any special supervision. To that purpose, the robot must be enabled to gather information from the environment in order to build its own understanding, which yields a map estimation. The scope of this thesis is focused on this aspect: the map building process with visual information from the environment. This process entails a non-trivial task, since it poses a challenge when it comes to obtaining a simultaneous estimation of the localization of the robot, and also of the map. This leads to one of the most essential paradigms in such context: the problem of SLAM (Simultaneous Localization And Mapping). Different sort of information can be acquired by a set of well known sensors boarded on the robot, such as laser, sonar, GPS, etc. However, digital cameras have arisen as a promising alternative. They provide low consumption, low cost and lightness. Moreover, these visual sensors represent a potential tool for encoding large amounts of information within an only image. Thus in this work we propose a new map model, embedded in a visual SLAM approach, which is solely based on the use of omnidirectional images acquired with a monocular camera. An important strength of this camera resides on its particular wide field of view. In addition, we process the information extracted from feature points, as physical landmarks which are visually detected on the images. This idea differs from traditional approaches, which basically concentrate on the accumulative scheme for the incremental re-estimation of all the landmarks in the map. Regarding the core algorithms under this context of visual SLAM, this thesis proposes several improvements to the robustness of the standard algorithm models. In particular, we present a customized offline model, which is capable of reducing those harmful effects associated with non-linear noise, as those introduced by catadioptric cameras. Many of the most accepted approaches are highly sensitive to this effects and fail to provide convergence assurance for the final estimation. Moreover, another recognized drawback of former approaches is the management of the uncertainty of the system. This is usually originated by the same non-linear sources. Consequently, the estimation may be severely impaired as errors dramatically compromise its convergence. In this sense, this thesis contributes to the achievement of a robust model for uncertainty reduction, which is dynamically devised. As a general commitment along all this thesis, we establish an experimental framework for all the different approaches and contributions made as a result of the research conducted in this context. Thus both simulated and real dataset experiments are repeatedly presented along this document. Actualmente dentro del campo de la robótica móvil se ha experimentado una importante proliferación de aplicaciones. Encontramos una gran variedad de robots móviles presentes en diversos sectores de nuestra sociedad, muchos de los cuales son aceptados como autónomos. Este término implica que el robot es capaz de operar por sí mismo, sin ningún tipo de supervisión especial. Para tal efecto, el robot debe ser habilitado para recoger información del entorno, de modo que pueda construir su propio entendimiento del mismo, tal como es una estimación de un mapa. El ámbito de esta tesis se concentra en este aspecto: el proceso de construcción de mapas con información visual del entorno. Este proceso implica una tarea de resolución no trivial, ya que plantea un reto en lo que se refiere a la obtención simultánea de la localización del robot, pero además del mapa. Esto último dirige hacia uno de los paradigmas más esenciales en este contexto: el problema de SLAM (Simultaneous Localization And Mapping). Distintos tipos de información pueden adquirirse mediante un conjunto bien conocido de sensores embarcados en el robot, tales como láser, sónar, GPS, etc. Sin embargo, las cámaras digitales emergen como una prometedora alternativa. Proporcionan bajo consumo, bajo coste y ligereza. Además, estos sensores visuales suponen una potencial herramienta para codificar grandes cantidades de información en una única imagen. Así, en este trabajo proponemos un nuevo modelo de mapa, embebido dentro de una propuesta de SLAM visual, la cual está basada únicamente en el uso de imágenes omnidireccionales, adquiridas con una cámanra monocular. Una importante fortaleza de esta cámara radica en su particular amplio campo de visión. Además, procesamos la información extraída de puntos característicos, entendidos como marcas físicas, los cuales son detectadas visualmente sobre las imágenes. Esta idea difiere de las propuestas tradicionales, cuyo objeto se concentra en un esquema acumulativo para la reestimación de todas las marcas del mapa. En cuanto al algoritmo núcleo dentro de este contexto de SLAM visual, esta tesis propone varias mejoras para la robustez de los modelos de algoritmos estándar. En particular, presentamos un modelo personalizado de tipo offline, el cual es capaz de reducir los efectos perjudiciales asociados con el ruido no lineal, tales como los introducidos por las cámaras catadióptricas. Muchas de las propuestas más aceptadas son altamente sentibles a estos efectos, y no logran asegurar la convergencia de la estimación final. Por otra parte, otro de los inconvenientes reconocidos de las primeras propuestas es la gestión de la incertidumbre del sistema. Normalmente esto es debido a las mismas fuentes no lineales. Consecuentemente, la estimación puede verse severamente dañada, puesto que compromete dramáticamente su convergencia. En este sentido, esta tesis contribuye a la consecución de un modelo robusto para la reducción de la incertidumbre, la cual es concebida dinámicamente. Como un compromiso general a lo largo de toda esta tesis, establecemos un marco experimental para todas las propuestas y contribuciones surgidas de los resultados de las investigaciones en este ámbito. De este modo, se presentan experimentos repetidamente a lo largo de este documento, tanto con conjuntos de datos simulados como reales. |
Palabras clave/Materias: Robótica Inteligencia artificial Tratamiento digital de imágenes |
Área de conocimiento : CDU: Ciencias aplicadas: Ingeniería. Tecnología: Ingeniería mecánica en general. Tecnología nuclear. Electrotecnia. Maquinaria: Ingeniería eléctrica. Electrotecnia. Telecomunicaciones |
Tipo documento : application/pdf |
Derechos de acceso: info:eu-repo/semantics/openAccess |
Aparece en las colecciones: Tesis doctorales - Ciencias e Ingenierías |
La licencia se describe como: Atribución-NonComercial-NoDerivada 4.0 Internacional.