Please use this identifier to cite or link to this item: https://hdl.handle.net/11000/1551
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorReinoso García, Óscar-
dc.contributor.authorAmorós Espí, Francisco Javier-
dc.contributor.otherDepartamentos de la UMH::Ingeniería de Sistemas y Automáticaes
dc.date.accessioned2014-03-25T16:59:56Z-
dc.date.available2014-03-25T16:59:56Z-
dc.date.created2014-02-24-
dc.date.issued2014-03-25-
dc.identifier.ismn344-
dc.identifier.urihttp://hdl.handle.net/11000/1551-
dc.description.abstractLa navegación de un robot de forma autónoma implica el conocimiento del entorno que le rodea. Existen distintos sensores que permiten al robot recoger la información de su alrededor. Esta informaci´on debe ser procesada e interpretada por el robot para el desempeño de su tarea. De entre los múltiples sensores con los que un robot puede estar equipado, los sistemas de visión pueden ser destacados. Son sensores con un peso reducido, un consumo energético limitado y unas opciones de configuración muy extensas, lo cual los convierten en aptos para casi cualquier tipo de aplicación y medio de navegación. Además, las imágenes proporcionan información de gran riqueza, que puede ser aprovechada de distintas formas. Dentro de la visión aplicada a navegación, en las últimas décadas han predominado las aproximaciones basadas en extracción de características para describir la información visual. Estas técnicas utilizan la segmentación de la imagen o la extracción de puntos significativos de las escenas. En esta tesis se plantea el uso de la apariencia global de la informaci´on visual para llevar a cabo la descripción de las imágenes y sus aplicaciones en tareas de navegación. A diferencia de los métodos basados en características, las técnicas de apariencia global procesan la imagen en su conjunto, sin tener en cuenta el contenido de la escena. Estos descriptores presentan una clara ventaja en entornos desestructurados, donde es difícil extraer puntos significativos. Sin embargo, al trabajar con la imagen completa, es necesario buscar técnicas que permitan el procesamiento de la escena de forma rápida y que describan la escena en pocos términos. En este trabajo se emplean dos sistemas visuales distintos: una cámara con lente de ojo de pez, que recogen un amplio campo de visión, y un conjunto catadióptrico, con el que se capturan imágenes omnidireccionales. Se incluye un estudio de las múltiples posibilidades de representación de las escenas que la información omnidireccional proporciona. Los descriptores de apariencia global han demostrado su utilidad en tareas de navegación, permitiendo la estimación de la pose del robot dentro de mapas visuales. La mayoría de las técnicas propuestas utilizan la información visual de un sólo canal, es decir, de la imagen en escala de grises. Por ello, se realiza una comparación de diferentes algoritmos basados en la apariencia global utilizando la información de color de distintas formas. El estudio tiene en consideración los requerimientos computacionales y la precisión de estimación de la pose dentro de un mapa denso, simulando además distintas situaciones de ruido y oclusiones en las escenas de test. Demostrada la capacidad de caracterización y distinción que este tipo de descriptores poseen, nuestra intención es utilizar estas técnicas para extraer información sobre la posición relativa de escenas capturadas en un entorno cercano. Específicamente, se plantean tres situaciones distintas para aplicar la apariencia global a tareas de navegación visual. El primero de ellos utiliza la información proporcionada por rutas de imágenes proyectivas para seleccionar y ordenar nodos de imágenes distribuidos por el área de navegación, formando el mapa del entorno. Para llevar a cabo esta tarea, el sistema estima el desplazamiento relativo entre dos im´agenes consecutivas. Esto se consigue mediante el Análisis Multiescala, entendiendo las escalas como ampliaciones artificiales de las escenas. Con este estudio se pretende demostrar, además de la posibilidad de obtener una medida del desplazamiento entre dos imágenes, la aplicabilidad y desempeño de la apariencia global sobre información no omnidireccional. El segundo caso a estudio tiene como objetivo la adaptación del Análisis Multiescala a las escenas omnidireccionales. Aprovechando las propiedades de la información omnidireccional, y el análisis multiescala, se propone un sistema de odometría visual utilizando la apariencia global de las escenas. Este sistema de odometría visual topológico es utilizado posteriormente en un proceso de estimación de rutas visuales, considerando además cierres de bucle para mejorar las estimaciones. Por último, se aborda el problema de estimación de desplazamientos verticales entre dos escenas usando de nuevo la apariencia global visual. El creciente interés en los vehículos aéreos como plataformas de navegación y el uso combinado con sensores visuales, nos llevan a plantear la utilización de la información omnidireccional junto con los descriptores de apariencia global para obtener estimadores de altura topológica. Todas las técnicas propuestas se validan a través de experimentos que usan distintas bases de imágenes propias capturadas en entornos reales.es
dc.description.abstractThe autonomous navigation of a robot requires of the knowledge of the environment it is surrounded with. The robot can use different sensors to gather the information around its position. This information must be processed and interpreted by the robot in order to perform its task, which directly depends on the kind of sensor used. Among themultiple sensors the robot can be equipped with, visual systems stand out. These sensors are light, have reduced energy consumption and multiple configuration options, which make them suitable for almost any application and means of navigation. Moreover, images provide very rich information, which can be used in different ways. Considering visual navigation, during the last decades feature-based approximations have stood out in order to describe the visual information. These techniques use the image segmentation or the extraction of distinctive points, also known as landmarks. This thesis suggests the application of global-appearance to the visual information in order to obtain image descriptors. Unlike feature-based methods, these techniques process the image as a whole, without considering the scene contents. Global-appearance descriptors present an important advantage in unstructured environments, where landmark recognition might be difficult. However, as they work with the whole image, it is important to find methods that process images efficiently and describe them in few terms. These descriptors have demonstrated their utility in navigation tasks, allowing the pose estimation in visual maps. The great majority of the proposals use the visual information of a single channel, which corresponds to the grey-scale image. For that reason, a comparison of different global-appearance techniques using the colour in different fashions is carried out. This study covers the computational requirements and the precision of the pose estimation in a dense map, also simulating different noise and occlusion situations in the test scenes. Once the abilities of characterization and distinction of images have been proved, our intention is to use these techniques to extract information regarding the relative position of two scenes captured closely. Specifically, three different situations are suggested to apply the global appearance to visual navigation tasks. First, we use the information provided by projective images to select and order nodes distributed along the navigation area, making up the map of the environment. To carry out this goal, the system estimates the relative displacement between two consecutive images. This is achieved by means of the Multiscale Analysis, defining the scales as artificial zooms of the original scene. With this study, we aim to demonstrate that, apart from the possibility of obtaining measures of the image displacement, the applicability and performance of the global appearance in non-omnidirectional images. The objective of the second study is to adapt the Multiscale Analysis to omnidirectional scenes. Combining omnidirectional information and the Multiscale Analysis, an odometry visual system is proposed, using the global appearance of scenes. Afterwards, the topological visual odometry is used in visual path estimation, considering also loop closures to improve the initial estimations. Finally, we address the problem of vertical displacement estimation between scenes using visual global appearance. The increasing interest in Unmanned Aerial Vehicles (AUV’s) as a navigation platform, combined with visual sensors, encourages us to study the application of omnidirectional information to obtain a topological height estimator. All the proposals are validated by means of experiments that use our own image database captured in real environments.es
dc.format.extent282es
dc.language.isospaes
dc.rightsinfo:eu-repo/semantics/openAccesses
dc.subjectRobots móvileses
dc.subjectVisión artificiales
dc.subjectIngeniería industriales
dc.subject.otherCDU: 04 - Ciencia y tecnología de los ordenadores. Informática.es
dc.titleAplicación de la Apariencia Global de la Información Visual Omnidireccional en Color a Tareas de Navegación Robótica en Espacio 2 1/2 D.es
dc.typeinfo:eu-repo/semantics/doctoralThesises
Appears in Collections:
Tesis doctorales - Ciencias e Ingenierías


Thumbnail

View/Open:
 Tesis_Francisco_Amoros.pdf
25,36 MB
Adobe PDF
Share:


Creative Commons ???jsp.display-item.text9???