<?xml version="1.0" encoding="UTF-8"?>
<feed xmlns="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <title>DSpace Comunidad :</title>
  <link rel="alternate" href="https://hdl.handle.net/11000/1163" />
  <subtitle />
  <id>https://hdl.handle.net/11000/1163</id>
  <updated>2026-04-08T19:15:02Z</updated>
  <dc:date>2026-04-08T19:15:02Z</dc:date>
  <entry>
    <title>La Carta Mia. Conjunto de aplicaciones para la gestión de carta y pedidos de un restaurante</title>
    <link rel="alternate" href="https://hdl.handle.net/11000/39618" />
    <author>
      <name>López Fornés, Víctor</name>
    </author>
    <id>https://hdl.handle.net/11000/39618</id>
    <updated>2026-03-28T02:09:08Z</updated>
    <published>2026-03-27T11:11:33Z</published>
    <summary type="text">Título : La Carta Mia. Conjunto de aplicaciones para la gestión de carta y pedidos de un restaurante
Autor : López Fornés, Víctor
Resumen : En este trabajo de fin de grado he desarrollado un sistema compuesto por tres aplicaciones destinadas a la gestión de la carta online y los pedidos de un restaurante ficticio llamado La Carta Mia. El objetivo principal ha sido diseñar una solución tecnológica que cubre tanto la administración interna del restaurante como la experiencia de los clientes a la hora de consultar la carta y realizar pedidos.&#xD;
Para ello, se han implementado un conjunto de tres aplicaciones, las cuales tienen las siguientes características:&#xD;
La primera de ellas es una página web desarrollada en Spring Boot, encargada de gestionar la carta del restaurante. Esta aplicación permite el acceso como usuario anónimo para la consulta de platos disponibles y, a su vez, incorpora un sistema de autenticación que habilita a los administradores la modificación de dicha carta. Además, esta aplicación funciona como servicio RESTful, proporcionando los datos necesarios a las demás aplicaciones.&#xD;
La segunda aplicación, muestra la carta de manera interactiva y permite la realización de pedidos. Estos pedidos se guardan online en Firebase, comunicándose con la tercera aplicación.&#xD;
La tercera aplicación consume los datos generados por la segunda aplicación y los gestiona, mostrando los actuales, pudiendo modificar sus estados (entregado, pagado, etc.). Además, tendremos un histórico de todos los pedidos realizados, para una posible contabilidad.</summary>
    <dc:date>2026-03-27T11:11:33Z</dc:date>
  </entry>
  <entry>
    <title>Arquitectura y diseño de software on-premise multiplataforma y multilenguaje para el análisis de imágenes&#xD;
hiperespectrales</title>
    <link rel="alternate" href="https://hdl.handle.net/11000/39617" />
    <author>
      <name>Díaz Mesa, Luis David</name>
    </author>
    <id>https://hdl.handle.net/11000/39617</id>
    <updated>2026-03-28T02:09:07Z</updated>
    <published>2026-03-27T11:10:41Z</published>
    <summary type="text">Título : Arquitectura y diseño de software on-premise multiplataforma y multilenguaje para el análisis de imágenes&#xD;
hiperespectrales
Autor : Díaz Mesa, Luis David
Resumen : El análisis de imágenes hiperespectrales implica el procesamiento de grandes volúmenes&#xD;
de datos multidimensionales, lo que exige soluciones software capaces de ofrecer&#xD;
alto rendimiento computacional, e ciencia en la gestión de memoria y escalabilidad&#xD;
estructural. En este contexto, el presente Trabajo de Fin de Grado aborda el dise-&#xD;
ño e implementación de una arquitectura software on-premise  es decir, ejecutada&#xD;
localmente en la infraestructura propia para garantizar el control y rendimiento de&#xD;
los datos , multiplataforma y multilenguaje, orientada a proporcionar una solución&#xD;
robusta y portable para el análisis avanzado de este tipo de información.&#xD;
La propuesta arquitectónica se fundamenta en una estricta separación de responsabilidades&#xD;
entre la capa de presentación y la capa de procesamiento, garantizando&#xD;
modularidad, mantenibilidad y evolución independiente de cada componente. La&#xD;
interfaz de usuario se desarrolla mediante Kotlin Multiplatform y Compose Multiplatform,&#xD;
permitiendo la generación de aplicaciones nativas para distintos sistemas&#xD;
operativos a partir de una base de código común. El núcleo de procesamiento se&#xD;
implementa en C++, aprovechando su e ciencia y control de bajo nivel para el tratamiento&#xD;
intensivo de datos espectrales mediante librerias como OpenCV y OpenMP.&#xD;
La interoperabilidad entre ambas capas se resuelve mediante Java Native Interface&#xD;
(JNI), lo que posibilita la integración segura y e ciente de código nativo dentro de un&#xD;
entorno multiplataforma moderno. Esta decisión arquitectónica permite combinar&#xD;
productividad en el desarrollo de interfaces con alto rendimiento computacional en&#xD;
el procesamiento, optimizando el equilibrio entre abstracción y control del sistema.&#xD;
La solución es compatible con entornos Windows, Linux y macOS, abordando los&#xD;
desafíos asociados a la compilación, empaquetado y distribución en múltiples plataformas.&#xD;
Asimismo, se analizan las principales decisiones de diseño adoptadas, incluyendo&#xD;
el modelo de ejecución on-premise, la interoperabilidad entre lenguajes y la&#xD;
gestión e ciente de memoria y recursos.&#xD;
Como resultado, se obtiene una herramienta funcional que valida la viabilidad de&#xD;
una arquitectura híbrida orientada a aplicaciones cientí cas de alto rendimiento,&#xD;
proponiendo un modelo arquitectónico replicable en otros dominios donde con uyan&#xD;
necesidades de portabilidad, e ciencia computacional y separación clara de responsabilidades.&#xD;
Luis</summary>
    <dc:date>2026-03-27T11:10:41Z</dc:date>
  </entry>
  <entry>
    <title>Importancia del preprocesamiento de datos en problemas de pronóstico clínico</title>
    <link rel="alternate" href="https://hdl.handle.net/11000/39616" />
    <author>
      <name>Peñalver Pérez, Carlos</name>
    </author>
    <id>https://hdl.handle.net/11000/39616</id>
    <updated>2026-03-28T02:09:06Z</updated>
    <published>2026-03-27T11:06:25Z</published>
    <summary type="text">Título : Importancia del preprocesamiento de datos en problemas de pronóstico clínico
Autor : Peñalver Pérez, Carlos
Resumen : Durante los últimos años, la aplicación de técnicas de aprendizaje automático en el ámbito sanitario ha permitido lograr sistemas de apoyo a la decisión clínica capaces de mejorar el diagnóstico y pronóstico de diversas enfermedades. Sin embargo, es importante ser consciente de la calidad de los datos, ya que esta influye directamente en el rendimiento de los modelos predictivos.&#xD;
Esta investigación tiene como objetivo analizar la importancia de distintas técnicas de preprocesamiento de datos en problemas de pronóstico clínico, evaluando su impacto sobre el rendimiento de distintos algoritmos. Para ello, se han utilizado varios conjuntos de datos médicos públicos con sus respectivas técnicas de limpieza, codificación y normalización, para su posterior análisis.&#xD;
Los resultados muestran que un preprocesamiento adecuado mejora la precisión y estabilidad de los modelos, especialmente en algoritmos sensibles a la escala y distribución de datos. El estudio evidencia que no solo incrementa se obtiene un incremento de exactitud, sino que también reduce el sesgo y variabilidad del pronóstico.&#xD;
Este trabajo contribuye a resaltar la necesidad de una fase de preprocesamiento previa al desarrollo de sistemas de apoyo a la decisión en el ámbito clínico.</summary>
    <dc:date>2026-03-27T11:06:25Z</dc:date>
  </entry>
  <entry>
    <title>Análisis proactivo del tráfico de red para la detección y respuestas de intrusiones utilizando machine learning</title>
    <link rel="alternate" href="https://hdl.handle.net/11000/39615" />
    <author>
      <name>Carlos Balsalobre, Juan Antonio</name>
    </author>
    <id>https://hdl.handle.net/11000/39615</id>
    <updated>2026-03-28T02:09:05Z</updated>
    <published>2026-03-27T11:05:42Z</published>
    <summary type="text">Título : Análisis proactivo del tráfico de red para la detección y respuestas de intrusiones utilizando machine learning
Autor : Carlos Balsalobre, Juan Antonio
Resumen : Debido al reciente auge de la inteligencia artificial y el mayor número de personas conectadas, las tecnologías web y métodos que emplean datos en la red, están teniendo cada vez un tráfico creciente, sin señal de que vaya a disminuir en ningún momento. De la misma forma, ha aumentado el número de ciberdelincuentes y es más común emplear métodos maliciosos para sacar provecho de todos los datos vulnerables que circulan en la red, por lo tanto, el papel de la ciberseguridad está en un plano de mayor importancia, siendo necesario ahora más que nunca.&#xD;
En este trabajo se ha empleado el uso de inteligencia artificial para el análisis de datos en el tráfico de red, buscando patrones de comportamiento en los datos que puedan generar tráfico malicioso, empleando algoritmos que predicen la naturaleza de una conexión basándose en los datos que forman dichas conexiones. Para ello ha sido necesario el estudio del conjunto de datos (dataset) UNSW-NB15 y CIC-IDS2017, los cuales están constituido por un conjunto de conexiones como fuente principal de aprendizaje utilizada por los modelos de inteligencia artificial, seguido de la monitorización de los datos analizados a nivel de conexión para poder determinar si los valores que presentan constituyen un ataque o no.&#xD;
Consiguientemente, se ha desarrollado un programa que a modo de detección de intrusiones tiene la función de monitorización, predicción de ataques e interpretación del tráfico de red, garantizando al usuario una serie de información de gran utilidad del tráfico que esté cursando en tiempo real, determinando, con ello, si ha habido una anomalía en las conexiones que haya procesado la interfaz de red que se esté empleando, pudiendo enviar esta información al usuario, permitiendo compartir los resultados de estas conexiones para su análisis o para una mayor transparencia en los datos que transcurren en la red.&#xD;
Finalmente, se ha determinado cuáles son los parámetros más determinantes a la hora de detectar anomalías en el tráfico de red y cuál es la varianza que presentan los datos que forman dichos ataques conforme a conexiones normales, pudiendo clasificar el tráfico normal con el malicioso. También ha sido estudiado cuáles son los ataques más comunes para poder establecer una serie de reglas en dichos parámetros de datos monitorizados y así evitar realizar conexiones no deseadas.</summary>
    <dc:date>2026-03-27T11:05:42Z</dc:date>
  </entry>
  <entry>
    <title>AnalIzA. Aplicación inteligente para procesamiento de datos, creación de modelos IA y generación de datos sintéticos</title>
    <link rel="alternate" href="https://hdl.handle.net/11000/39614" />
    <author>
      <name>Caselles Salvà, Aina</name>
    </author>
    <id>https://hdl.handle.net/11000/39614</id>
    <updated>2026-03-28T02:09:03Z</updated>
    <published>2026-03-27T11:04:48Z</published>
    <summary type="text">Título : AnalIzA. Aplicación inteligente para procesamiento de datos, creación de modelos IA y generación de datos sintéticos
Autor : Caselles Salvà, Aina
Resumen : Este trabajo presenta el desarrollo de una aplicación interactiva orientada a facilitar el análisis, preparación y modelado de datos de manera accesible e interactiva, sin necesidad de conocimientos avanzados en programación. La herramienta está concebida como una solución integral que permite a cualquier usuario cargar un conjunto de datos y recorrer, de forma guiada, las distintas etapas fundamentales de un proyecto de ciencia de datos.&#xD;
En primer lugar, la aplicación incorpora un módulo de análisis exploratorio de datos (EDA) que permite visualizar estadísticas descriptivas, distribuciones, relaciones entre variables y posibles anomalías. A través de una interfaz intuitiva, el usuario puede explorar las características del conjunto de datos y comprender su estructura sin necesidad de escribir código. Además, el sistema incorpora un mecanismo de asistencia basado en inteligencia artificial que analiza el dataset y sugiere mejoras relacionadas con la limpieza, transformación o preparación de los datos. De este modo, el usuario no solo observa la información, sino que recibe orientación activa para optimizarla antes de su utilización en modelos predictivos.&#xD;
La herramienta también incluye un módulo de entrenamiento de modelos básicos de aprendizaje automático, orientado principalmente a tareas de clasificación y regresión. Tras cargar el dataset, el usuario puede seleccionar la variable objetivo, y el sistema ofrece recomendaciones sobre el tipo de modelo más adecuado en función de la naturaleza del problema. Aunque el usuario mantiene el control en la elección final, la plataforma proporciona apoyo en la toma de decisiones, reduciendo la complejidad técnica del proceso. Una vez entrenado el modelo, se presentan métricas de evaluación que permiten analizar su rendimiento y se ofrece la posibilidad de realizar predicciones de prueba, así como descargar el modelo generado.&#xD;
Adicionalmente, la aplicación incorpora una funcionalidad para la generación de datasets sintéticos, permitiendo definir variables y crear conjuntos de datos personalizados para pruebas, experimentación o validación.&#xD;
En conjunto, el proyecto propone una herramienta que simplifica y democratiza el acceso a procesos fundamentales del análisis y modelado de datos. Su principal aportación reside en integrar, en una única plataforma y bajo un enfoque guiado e interactivo, tareas que tradicionalmente requieren conocimientos técnicos especializados, acercando así el aprendizaje automático y la preparación de datos a un público más amplio.</summary>
    <dc:date>2026-03-27T11:04:48Z</dc:date>
  </entry>
  <entry>
    <title>Fine-Tuning de Modelos de Lenguaje para Generación de Código en CODE-2</title>
    <link rel="alternate" href="https://hdl.handle.net/11000/39613" />
    <author>
      <name>Bernabeu Marroquí, Santos</name>
    </author>
    <id>https://hdl.handle.net/11000/39613</id>
    <updated>2026-03-28T02:08:53Z</updated>
    <published>2026-03-27T11:03:53Z</published>
    <summary type="text">Título : Fine-Tuning de Modelos de Lenguaje para Generación de Código en CODE-2
Autor : Bernabeu Marroquí, Santos
Resumen : Este Trabajo Fin de Grado tiene como objetivo el estudio, aplicación y evaluación del&#xD;
modelo T5-Small para tareas de generación automática de código ensamblador en el&#xD;
entorno académico CODE-2[16]. Dicho entorno, ampliamente utilizado en docencia&#xD;
para la enseñanza de arquitectura de computadores[16], presenta una gramática y&#xD;
sintaxis bien definida que lo convierte en un candidato adecuado para la aplicación&#xD;
de modelos de lenguaje generativos.&#xD;
El trabajo se ha estructurado en torno a dos ejes principales: por un lado, el finetuning&#xD;
del modelo utilizando técnicas avanzadas como Prompt-Tuning, Adapters,&#xD;
Low-Rank Adaptation (LoRA) y Full Fine-Tuning (cap´ıtulo 3); y por otro lado, la&#xD;
aplicación de técnicas de cuantización, concretamente Post-Training Quantization&#xD;
(PTQ), con el fin de reducir el tamaño del modelo y su coste de inferencia&#xD;
(capítulo 4).&#xD;
Para la evaluación se ha diseñado un conjunto de pruebas que abarca métricas&#xD;
estándar en la generación de código: Exact Match, BLEU y ROUGE-L, analizando&#xD;
además el consumo de recursos computacionales, tiempos de entrenamiento&#xD;
y desempeño bajo diferentes configuraciones de entrenamiento y hardware.&#xD;
Los resultados obtenidos confirman que el enfoque de Full Fine-Tuning ofrece la&#xD;
mejor calidad y consistencia en la generación de código, alcanzando un Exact Match&#xD;
del 83% tras optimización de parámetros de decodificación (80% en el modelo entrenado&#xD;
base con dataset de 36k ejemplos). Aunque técnicas diversas fueron evaluadas&#xD;
(Prompt-Tuning, Adapters, LoRA, Full Fine-Tuning), solo Full Fine-Tuning&#xD;
demostró rendimiento suficiente para aplicaciones educativas donde la corrección&#xD;
semántica es crítica. Para contextos con recursos muy limitados, LoRA constituye&#xD;
una alternativa viable aunque con menor precisión. Además, se documentaron&#xD;
limitaciones fundamentales de técnicas alternativas como QAT (incompatible con&#xD;
Transformers en Windows) y poda agresiva (causa colapso del modelo).</summary>
    <dc:date>2026-03-27T11:03:53Z</dc:date>
  </entry>
  <entry>
    <title>DNS Cache Viewer: Análisis y monitorización de la caché DNS</title>
    <link rel="alternate" href="https://hdl.handle.net/11000/39612" />
    <author>
      <name>Amorós Ramírez, Joan</name>
    </author>
    <id>https://hdl.handle.net/11000/39612</id>
    <updated>2026-03-28T02:08:49Z</updated>
    <published>2026-03-27T10:35:29Z</published>
    <summary type="text">Título : DNS Cache Viewer: Análisis y monitorización de la caché DNS
Autor : Amorós Ramírez, Joan
Resumen : Este Trabajo de Fin de Grado consiste en el diseño e implementación de un visor de caché DNS (DNS Cache Viewer) orientado al análisis y monitorización del funcionamiento interno de la caché DNS en servidores BIND9.&#xD;
En este contexto, el principal problema abordado es la ausencia de herramientas accesibles y visuales que permitan inspeccionar de forma sencilla el contenido de la caché DNS y analizar métricas clave como el tiempo de vida (TTL) de los registros, el comportamiento temporal de la caché, así como las tasas de aciertos (hits) y fallos (misses) en la resolución de dominios.&#xD;
Para ello, el visor desarrollado permite extraer y procesar información de la caché DNS mediante el volcado de ficheros internos de BIND, identificando los dominios almacenados, los tipos de registros, el TTL restante y otros parámetros relevantes.&#xD;
Asimismo, la aplicación ha sido implementada principalmente en Python, empleando bibliotecas para el procesamiento de texto, análisis de datos y generación de gráficos, y se apoya en scripts Bash para la automatización del volcado periódico de la caché y la ejecución de experimentos controlados.&#xD;
El desarrollo del proyecto ha seguido una metodología incremental, combinando el diseño del sistema de adquisición de datos, la implementación del visor y la validación experimental mediante escenarios con distintos valores de carga de consultas DNS.&#xD;
Como conclusión, el DNS Cache Viewer constituye una herramienta útil para comprender el funcionamiento interno de la caché DNS y evaluar el impacto de los parámetros de configuración sobre el rendimiento del sistema, contribuyendo a la optimización de infraestructuras DNS y a la mejora de la eficiencia de los sistemas de resolución de nombres.</summary>
    <dc:date>2026-03-27T10:35:29Z</dc:date>
  </entry>
  <entry>
    <title>Sistema de apoyo al diagnóstico de diabetes y retinopatía diabética mediante técnicas de inteligencia artificial</title>
    <link rel="alternate" href="https://hdl.handle.net/11000/39611" />
    <author>
      <name>Navarro Cantó, Carmen</name>
    </author>
    <id>https://hdl.handle.net/11000/39611</id>
    <updated>2026-03-28T02:08:46Z</updated>
    <published>2026-03-27T10:27:55Z</published>
    <summary type="text">Título : Sistema de apoyo al diagnóstico de diabetes y retinopatía diabética mediante técnicas de inteligencia artificial
Autor : Navarro Cantó, Carmen
Resumen : Este Trabajo Fin de Grado presenta el desarrollo de un sistema inteligente de apoyo a la decisión clínica para el diagnóstico temprano de la diabetes y la retinopatía diabética mediante técnicas de Inteligencia Artificial. La solución propuesta se estructura en dos módulos predictivos basados en Deep Learning: una Red Neuronal Multicapa (MLP) diseñada para analizar datos clínicos tabulares (optimizada mediante técnicas de balan-ceo SMOTE) y una Red Neuronal Convolucional (CNN) orientada a la detección de patrones patológicos directamente en imágenes médicas de fondo de ojo.&#xD;
Ambos modelos predictivos se han integrado de forma exitosa en una interfaz web in-teractiva desarrollada con Streamlit. Esta herramienta permite a los profesionales sanita-rios realizar evaluaciones individuales, procesar historiales clínicos de forma masiva (vía CSV) y analizar retinografías de manera automatizada. Los resultados obtenidos confirman la alta precisión del sistema, validando su utilidad como herramienta de apo-yo para optimizar y agilizar el cribado médico.</summary>
    <dc:date>2026-03-27T10:27:55Z</dc:date>
  </entry>
  <entry>
    <title>Análisis y clasificación del control atencional a partir de tareas cognitivas mediante aprendizaje automático</title>
    <link rel="alternate" href="https://hdl.handle.net/11000/39610" />
    <author>
      <name>Salinas Perez, Maria Isabel</name>
    </author>
    <id>https://hdl.handle.net/11000/39610</id>
    <updated>2026-03-28T02:08:43Z</updated>
    <published>2026-03-27T10:27:09Z</published>
    <summary type="text">Título : Análisis y clasificación del control atencional a partir de tareas cognitivas mediante aprendizaje automático
Autor : Salinas Perez, Maria Isabel
Resumen : Este Trabajo de Fin de Grado se centra en el análisis del control atencional a partir de datos obtenidos en tareas cognitivas digitales. La atención es un proceso clave en el comportamiento humano, y su estudio se puede realizar mediante indicadores como tiempos de reacción, tasas de error o variabilidad en la respuesta. A partir de estas métricas sobre la conducta, el objetivo de este trabajo es explorar si es posible identificar patrones diferenciables utilizando técnicas de aprendizaje automático.&#xD;
Para ello, se parte de un conjunto de datos procedente de tres tareas clásicas de evaluación atencional: Flanker, Stroop y Stop-Signal. Los datos originales, definidos a nivel de ensayo, se transforman mediante un proceso de preprocesamiento y construcción de características en una matriz agregada a nivel de participante.&#xD;
Posteriormente, se sigue un enfoque de aprendizaje semi-supervisado. Es decir, en primer lugar, para definir perfiles experimentales, se utilizan técnicas de aprendizaje no supervisado y, a continuacion, se aplican modelos supervisados para analizar su separabilidad y coherencia.&#xD;
En este trabajo no se pretende optimizar al máximo el rendimiento de los modelos, sino analizar de forma clara los patrones que aparecen en los datos. Los resultados indican que las métricas conductuales permiten diferenciar perfiles, aunque estos dependan del conjunto de datos y no deben interpretarse como categorías definitivas.&#xD;
En conjunto, el trabajo desarrolla un sistema modular en Python para el análisis de datos conductuales, combinando fundamentos teóricos de la atención con herramientas propias del análisis de datos y el aprendizaje automático.</summary>
    <dc:date>2026-03-27T10:27:09Z</dc:date>
  </entry>
  <entry>
    <title>Herramientas de simulación e intercomunicación para la integración de sistemas industriales basados en mobdus</title>
    <link rel="alternate" href="https://hdl.handle.net/11000/39609" />
    <author>
      <name>Segura Alonso, Jordi</name>
    </author>
    <id>https://hdl.handle.net/11000/39609</id>
    <updated>2026-03-28T02:08:38Z</updated>
    <published>2026-03-27T10:26:17Z</published>
    <summary type="text">Título : Herramientas de simulación e intercomunicación para la integración de sistemas industriales basados en mobdus
Autor : Segura Alonso, Jordi
Resumen : En la actualidad existen desplegados en entornos industriales una gran cantidad de sistemas de monitorización y control que exponen datos a través del protocolo modbus. Modbus es un estándar de facto de la industria desarrollado en 1979 y cuenta con una serie de particularidades que dificultan su integración en sistemas de software modernos. Además, la vida útil de estos equipos es larga y es habitual tratar con hardware obsoleto que impone aún más restricciones en la comunicación.&#xD;
Para atajar este problema se ha planteado elaborar una suite de herramientas para interactuar con equipos modbus que incluye una librería de comunicación con modbus, una api diseñada para actuar como gateway y monitorizar el estado de equipos modbus y, por último, un software de simulación de esclavo configurable planteado para poder simular dispositivos modbus reales con diversos tipos de limitaciones.&#xD;
Las tres soluciones implementadas han sido desarrolladas en rust usando el framework asíncrono tokio. Además, tanto el simulador de esclavo como el gateway implementan api de acuerdo con la filosofía rest.</summary>
    <dc:date>2026-03-27T10:26:17Z</dc:date>
  </entry>
</feed>

