Please use this identifier to cite or link to this item: https://hdl.handle.net/11000/31805
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorPayá Castelló, Luis-
dc.contributor.advisorValiente García, David-
dc.contributor.authorFlores Tenza, María-
dc.contributor.otherDepartamentos de la UMH::Ingeniería de Comunicacioneses_ES
dc.date.accessioned2024-03-22T10:37:28Z-
dc.date.available2024-03-22T10:37:28Z-
dc.date.created2023-
dc.identifier.urihttps://hdl.handle.net/11000/31805-
dc.descriptionPrograma de Doctorado en Tecnologías Industriales y de Telecomunicaciónes_ES
dc.description.abstractActualmente, los robots móviles están presentes en varios ámbitos, no solo en la industria o en aquellos que presentan algún peligro para el ser humano (como ocurre en las exploraciones en planetas o en minas), sino también en nuestro día a día (como en restaurantes o incluso en nuestros hogares). En muchas ocasiones, deben realizar la tarea asignada mientras navegan de forma autónoma. Para lograrlo de forma segura, el robot móvil debe conocer bien su entorno y ser capaz de localizarse en él. En línea con el párrafo anterior, la navegación autónoma implica resolver una serie de tareas como localización, creación de mapas o planificación de trayectorias evitando obstáculos. Durante la navegación, el robot debe tener información sobre su entorno. Por consiguiente, el robot móvil debe llevar a bordo ciertos sensores en función de la cantidad y tipo de información que necesite. De entre todos los sensores utilizados en el campo de la robótica móvil, los sistemas de visión están siendo ampliamente empleados para conseguir una navegación autónoma. La razón es que una imagen única es capaz de proporcionar una gran variedad de información (por ejemplo, textura o color) y puede emplearse para resolver el problema de localización. Además, son una solución adecuada para distintos tipos de entorno (como acuático, aéreo o terrestre, ya sea en interior o exterior). En cuanto a cantidad de información se refiere, los sistemas de visión omnidireccionales son capaces de proporcionar un campo de visión de 360° alrededor del robot móvil. Tras todo lo comentado, la presente tesis tiene dos objetivos principales. Por un lado, se proponen algunas contribuciones para mejorar un algoritmo de localización probabilística para conseguir una estimación más robusta de la pose relativa a partir de un par de imágenes de campo de visión amplio. Por otro lado, se presenta un algoritmo para generar una vista esférica completa a partir de un par de imágenes fisheye, incluyendo algunos pasos de corrección que mejoran la calidad de la imagen resultante. Ambos objetivos se describen con más detalle a continuación. Respecto al primer objetivo, la tarea de localización puede abordarse como un problema de odometría visual. Hay varios procedimientos para ello, pero nos centraremos en el basado en puntos característicos locales. En este caso, el algoritmo ha implementado una búsqueda de coincidencias de características entre la imagen capturada en el instante de tiempo actual y la capturada en el instante de tiempo anterior. A continuación, el conjunto de puntos característicos locales se emplea para estimar la matriz esencial, que puede descomponerse en una matriz de rotación y un vector de traslación (excepto un factor de escala). En este trabajo, proponemos implementar una búsqueda de coincidencias basada en un modelo probabilístico del entorno para mejorar el algoritmo de odometría visual y realizamos una evaluación comparativa de sistemas de visión de campo amplio en esta tarea. El segundo objetivo se refiere al sistema de visión utilizado en este trabajo, que está compuesto por dos sensores CMOS back-to-back y dos lentes fisheye con un campo de visión superior a 180°cada una. Esta configuración permite generar un campo de visión completo, de 360° horizontalmente y 180° verticalmente. Esto último constituye una valiosa ventaja, especialmente para la navegación autónoma. Sin embargo, también requiere un procesamiento preciso para mezclar ambas imágenes y crear una vista panorámica completa del entorno, y puede dar lugar a errores y artefactos en la imagen resultante, principalmente en las zonas de solape. Teniendo en cuenta lo anterior, este trabajo pretende minimizar el error de alineación antes de calcular la transformación geométrica mediante varias contribuciones que incluyen algunos pasos de corrección. La parte experimental demuestra que son eficaces para generar una panorámica de alta calidad.es_ES
dc.formatapplication/pdfes_ES
dc.format.extent260es_ES
dc.language.isospaes_ES
dc.publisherUniversidad Miguel Hérnández de Elchees_ES
dc.rightsinfo:eu-repo/semantics/openAccesses_ES
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectVisión artificiales_ES
dc.subjectRobóticaes_ES
dc.subject.otherCDU::6 - Ciencias aplicadas::62 - Ingeniería. Tecnologíaes_ES
dc.titleGeneración de vistas panorámicas y localización de un robot móvil mediante un sistema con un campo de visión de 360°es_ES
dc.typeinfo:eu-repo/semantics/doctoralThesises_ES
Appears in Collections:
Tesis doctorales - Ciencias e Ingenierías


Thumbnail

View/Open:
 TESIS SF Flores Tenza_Maria_compressed.pdf

4,57 MB
Adobe PDF
Share:


Creative Commons ???jsp.display-item.text9???