Please use this identifier to cite or link to this item:
https://hdl.handle.net/11000/31805
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | Payá Castelló, Luis | - |
dc.contributor.advisor | Valiente García, David | - |
dc.contributor.author | Flores Tenza, María | - |
dc.contributor.other | Departamentos de la UMH::Ingeniería de Comunicaciones | es_ES |
dc.date.accessioned | 2024-03-22T10:37:28Z | - |
dc.date.available | 2024-03-22T10:37:28Z | - |
dc.date.created | 2023 | - |
dc.identifier.uri | https://hdl.handle.net/11000/31805 | - |
dc.description | Programa de Doctorado en Tecnologías Industriales y de Telecomunicación | es_ES |
dc.description.abstract | Actualmente, los robots móviles están presentes en varios ámbitos, no solo en la industria o en aquellos que presentan algún peligro para el ser humano (como ocurre en las exploraciones en planetas o en minas), sino también en nuestro día a día (como en restaurantes o incluso en nuestros hogares). En muchas ocasiones, deben realizar la tarea asignada mientras navegan de forma autónoma. Para lograrlo de forma segura, el robot móvil debe conocer bien su entorno y ser capaz de localizarse en él. En línea con el párrafo anterior, la navegación autónoma implica resolver una serie de tareas como localización, creación de mapas o planificación de trayectorias evitando obstáculos. Durante la navegación, el robot debe tener información sobre su entorno. Por consiguiente, el robot móvil debe llevar a bordo ciertos sensores en función de la cantidad y tipo de información que necesite. De entre todos los sensores utilizados en el campo de la robótica móvil, los sistemas de visión están siendo ampliamente empleados para conseguir una navegación autónoma. La razón es que una imagen única es capaz de proporcionar una gran variedad de información (por ejemplo, textura o color) y puede emplearse para resolver el problema de localización. Además, son una solución adecuada para distintos tipos de entorno (como acuático, aéreo o terrestre, ya sea en interior o exterior). En cuanto a cantidad de información se refiere, los sistemas de visión omnidireccionales son capaces de proporcionar un campo de visión de 360° alrededor del robot móvil. Tras todo lo comentado, la presente tesis tiene dos objetivos principales. Por un lado, se proponen algunas contribuciones para mejorar un algoritmo de localización probabilística para conseguir una estimación más robusta de la pose relativa a partir de un par de imágenes de campo de visión amplio. Por otro lado, se presenta un algoritmo para generar una vista esférica completa a partir de un par de imágenes fisheye, incluyendo algunos pasos de corrección que mejoran la calidad de la imagen resultante. Ambos objetivos se describen con más detalle a continuación. Respecto al primer objetivo, la tarea de localización puede abordarse como un problema de odometría visual. Hay varios procedimientos para ello, pero nos centraremos en el basado en puntos característicos locales. En este caso, el algoritmo ha implementado una búsqueda de coincidencias de características entre la imagen capturada en el instante de tiempo actual y la capturada en el instante de tiempo anterior. A continuación, el conjunto de puntos característicos locales se emplea para estimar la matriz esencial, que puede descomponerse en una matriz de rotación y un vector de traslación (excepto un factor de escala). En este trabajo, proponemos implementar una búsqueda de coincidencias basada en un modelo probabilístico del entorno para mejorar el algoritmo de odometría visual y realizamos una evaluación comparativa de sistemas de visión de campo amplio en esta tarea. El segundo objetivo se refiere al sistema de visión utilizado en este trabajo, que está compuesto por dos sensores CMOS back-to-back y dos lentes fisheye con un campo de visión superior a 180°cada una. Esta configuración permite generar un campo de visión completo, de 360° horizontalmente y 180° verticalmente. Esto último constituye una valiosa ventaja, especialmente para la navegación autónoma. Sin embargo, también requiere un procesamiento preciso para mezclar ambas imágenes y crear una vista panorámica completa del entorno, y puede dar lugar a errores y artefactos en la imagen resultante, principalmente en las zonas de solape. Teniendo en cuenta lo anterior, este trabajo pretende minimizar el error de alineación antes de calcular la transformación geométrica mediante varias contribuciones que incluyen algunos pasos de corrección. La parte experimental demuestra que son eficaces para generar una panorámica de alta calidad. | es_ES |
dc.format | application/pdf | es_ES |
dc.format.extent | 260 | es_ES |
dc.language.iso | spa | es_ES |
dc.publisher | Universidad Miguel Hérnández de Elche | es_ES |
dc.rights | info:eu-repo/semantics/openAccess | es_ES |
dc.rights | Attribution-NonCommercial-NoDerivatives 4.0 Internacional | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0/ | * |
dc.subject | Visión artificial | es_ES |
dc.subject | Robótica | es_ES |
dc.subject.other | CDU::6 - Ciencias aplicadas::62 - Ingeniería. Tecnología | es_ES |
dc.title | Generación de vistas panorámicas y localización de un robot móvil mediante un sistema con un campo de visión de 360° | es_ES |
dc.type | info:eu-repo/semantics/doctoralThesis | es_ES |
View/Open:
TESIS SF Flores Tenza_Maria_compressed.pdf
4,57 MB
Adobe PDF
Share: