Por favor, use este identificador para citar o enlazar este ítem: https://hdl.handle.net/11000/33071
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorReinoso García, Óscar-
dc.contributor.advisorMartínez de Dios, José Ramiro-
dc.contributor.authorLuna Santa-María, Francisco Javier-
dc.contributor.otherDepartamentos de la UMH::Ingeniería de Sistemas y Automáticaes_ES
dc.date.accessioned2024-09-11T12:52:48Z-
dc.date.available2024-09-11T12:52:48Z-
dc.date.created2023-09-
dc.identifier.urihttps://hdl.handle.net/11000/33071-
dc.description.abstractEsta proyecto presenta un nuevo enfoque para detectar marcadores ArUco utilizando cá-maras de eventos. Las cámaras de eventos son sensores bioinspirados que capturan cambios de brillo a nivel de píxel de forma asíncrona, ofreciendo ventajas como alta resolución temporal, baja latencia y alto rango dinámico. Los marcadores fiduciales como ArUco son marcas de referencia visuales que se utilizan en tareas como localización mediante cámaras y realidad aumentada. Sin embargo, la detección de estos marcadores se basa en algoritmos tradicionales de visión por computador diseñados para cámaras estándar. El detector de ArUco basado en eventos propuesto consiste en un proceso para detectar e identificar marcadores procesando los eventos de entrada. En primer lugar, se generan imágenes de bordes compensadas a partir del movimiento de los eventos mediante un método de maximización del contraste. A continuación, se extraen candidatos de mar-cadores mediante la detección de cuadriláteros en las imágenes compensadas. Por último, se presentan dos técnicas para la identificación de ArUco en los candidatos: un enfoque de codificación de cuadrículas de bordes adaptado a los eventos (eAruco-Grid) y una clasificación con una red neuronal convolucional (eAruco-CNN). El método se evalúa con distintos diccionarios de ArUco. Los resultados demuestran una detección satisfactoria y una gran exactitud de identificación en diversas condiciones, como con desenfoque de movimiento y cambios de iluminación, en las que falla la detección de ArUco tradicional.es_ES
dc.description.abstractThis work presents a novel approach for detecting ArUco markers using event cameras. Event cameras are bio-inspired sensors that capture pixel-level brightness changes asyn-chronously, used in advantages like high speed, low latency, and high dynamic range. Fiducial markers like ArUco are visual landmarks enabling tasks such as camera local-ization and augmented reality. However, marker detection relies on traditional computer vision algorithms devised for standard cameras. The proposed Event-based ArUco detector consists of a pipeline to detect and identify markers by processing input events. First, motion compensated edge images are generated from events using a contrast maximization method. Next, marker candidates are extracted by detecting quadrilaterals in the edge images. Finally, two techniques are presented for ArUco identification on the candidates - a novel grid encoding approach tailored to events (eAruco-Grid) and a convolutional neural network classifier (eAruco-CNN). The method is evaluated on different ArUco dictionaries. Results demonstrate successful detection and high identification accuracy under various conditions like motion blur and lighting changes where traditional ArUco detection fails.es_ES
dc.formatapplication/pdfes_ES
dc.format.extent66es_ES
dc.language.isospaes_ES
dc.publisherUniversidad Miguel Hérnández de Elchees_ES
dc.rightsinfo:eu-repo/semantics/openAccesses_ES
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subject.otherCDU::6 - Ciencias aplicadas::62 - Ingeniería. Tecnologíaes_ES
dc.titleEvent-based Detector of ArUco Markerses_ES
dc.typeinfo:eu-repo/semantics/masterThesises_ES
Aparece en las colecciones:
TFM-M.U en Robótica


Vista previa

Ver/Abrir:
 Luna_Santamaria_Francisco_Javier_TFM.pdf

4,64 MB
Adobe PDF
Compartir:


Creative Commons La licencia se describe como: Atribución-NonComercial-NoDerivada 4.0 Internacional.