Please use this identifier to cite or link to this item: https://hdl.handle.net/11000/39613
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorGarcía Crespi, Francisco Federico-
dc.contributor.authorBernabeu Marroquí, Santos-
dc.contributor.otherDepartamentos de la UMH::Ingeniería de Computadoreses_ES
dc.date.accessioned2026-03-27T11:03:53Z-
dc.date.available2026-03-27T11:03:53Z-
dc.date.created2026-02-
dc.identifier.urihttps://hdl.handle.net/11000/39613-
dc.description.abstractEste Trabajo Fin de Grado tiene como objetivo el estudio, aplicación y evaluación del modelo T5-Small para tareas de generación automática de código ensamblador en el entorno académico CODE-2[16]. Dicho entorno, ampliamente utilizado en docencia para la enseñanza de arquitectura de computadores[16], presenta una gramática y sintaxis bien definida que lo convierte en un candidato adecuado para la aplicación de modelos de lenguaje generativos. El trabajo se ha estructurado en torno a dos ejes principales: por un lado, el finetuning del modelo utilizando técnicas avanzadas como Prompt-Tuning, Adapters, Low-Rank Adaptation (LoRA) y Full Fine-Tuning (cap´ıtulo 3); y por otro lado, la aplicación de técnicas de cuantización, concretamente Post-Training Quantization (PTQ), con el fin de reducir el tamaño del modelo y su coste de inferencia (capítulo 4). Para la evaluación se ha diseñado un conjunto de pruebas que abarca métricas estándar en la generación de código: Exact Match, BLEU y ROUGE-L, analizando además el consumo de recursos computacionales, tiempos de entrenamiento y desempeño bajo diferentes configuraciones de entrenamiento y hardware. Los resultados obtenidos confirman que el enfoque de Full Fine-Tuning ofrece la mejor calidad y consistencia en la generación de código, alcanzando un Exact Match del 83% tras optimización de parámetros de decodificación (80% en el modelo entrenado base con dataset de 36k ejemplos). Aunque técnicas diversas fueron evaluadas (Prompt-Tuning, Adapters, LoRA, Full Fine-Tuning), solo Full Fine-Tuning demostró rendimiento suficiente para aplicaciones educativas donde la corrección semántica es crítica. Para contextos con recursos muy limitados, LoRA constituye una alternativa viable aunque con menor precisión. Además, se documentaron limitaciones fundamentales de técnicas alternativas como QAT (incompatible con Transformers en Windows) y poda agresiva (causa colapso del modelo).es_ES
dc.formatapplication/pdfes_ES
dc.format.extent156es_ES
dc.language.isospaes_ES
dc.publisherUniversidad Miguel Hernández de Elchees_ES
dc.rightsinfo:eu-repo/semantics/openAccesses_ES
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectInteligencia Artificiales_ES
dc.subjectProcesamiento lenguaje naturales_ES
dc.subjectmodelos Transformeres_ES
dc.subjectT5-Smalles_ES
dc.subjectgeneración de códigoes_ES
dc.subjectArtificial Intelligencees_ES
dc.subjectNatural Language Processinges_ES
dc.subjectTransformer modelses_ES
dc.subjectcode generationes_ES
dc.subject.otherCDU::6 - Ciencias aplicadas::62 - Ingeniería. Tecnologíaes_ES
dc.titleFine-Tuning de Modelos de Lenguaje para Generación de Código en CODE-2es_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
Appears in Collections:
TFG-Ingeniería Informática en Tecnologías de la Información


Thumbnail

View/Open:
 TFG-Bernabeu Marroquí, Santos.pdf

5,76 MB
Adobe PDF
Share:


Creative Commons ???jsp.display-item.text9???