Por favor, use este identificador para citar o enlazar este ítem: https://hdl.handle.net/11000/39613

Fine-Tuning de Modelos de Lenguaje para Generación de Código en CODE-2


Vista previa

Ver/Abrir:
 TFG-Bernabeu Marroquí, Santos.pdf

5,76 MB
Adobe PDF
Compartir:
Título :
Fine-Tuning de Modelos de Lenguaje para Generación de Código en CODE-2
Autor :
Bernabeu Marroquí, Santos
Tutor:
García Crespi, Francisco Federico
Editor :
Universidad Miguel Hernández de Elche
Departamento:
Departamentos de la UMH::Ingeniería de Computadores
Fecha de publicación:
2026-02
URI :
https://hdl.handle.net/11000/39613
Resumen :
Este Trabajo Fin de Grado tiene como objetivo el estudio, aplicación y evaluación del modelo T5-Small para tareas de generación automática de código ensamblador en el entorno académico CODE-2[16]. Dicho entorno, ampliamente utilizado en docencia para la enseñanza de arquitectura de computadores[16], presenta una gramática y sintaxis bien definida que lo convierte en un candidato adecuado para la aplicación de modelos de lenguaje generativos. El trabajo se ha estructurado en torno a dos ejes principales: por un lado, el finetuning del modelo utilizando técnicas avanzadas como Prompt-Tuning, Adapters, Low-Rank Adaptation (LoRA) y Full Fine-Tuning (cap´ıtulo 3); y por otro lado, la aplicación de técnicas de cuantización, concretamente Post-Training Quantization (PTQ), con el fin de reducir el tamaño del modelo y su coste de inferencia (capítulo 4). Para la evaluación se ha diseñado un conjunto de pruebas que abarca métricas estándar en la generación de código: Exact Match, BLEU y ROUGE-L, analizando además el consumo de recursos computacionales, tiempos de entrenamiento y desempeño bajo diferentes configuraciones de entrenamiento y hardware. Los resultados obtenidos confirman que el enfoque de Full Fine-Tuning ofrece la mejor calidad y consistencia en la generación de código, alcanzando un Exact Match del 83% tras optimización de parámetros de decodificación (80% en el modelo entrenado base con dataset de 36k ejemplos). Aunque técnicas diversas fueron evaluadas (Prompt-Tuning, Adapters, LoRA, Full Fine-Tuning), solo Full Fine-Tuning demostró rendimiento suficiente para aplicaciones educativas donde la corrección semántica es crítica. Para contextos con recursos muy limitados, LoRA constituye una alternativa viable aunque con menor precisión. Además, se documentaron limitaciones fundamentales de técnicas alternativas como QAT (incompatible con Transformers en Windows) y poda agresiva (causa colapso del modelo).
Palabras clave/Materias:
Inteligencia Artificial
Procesamiento lenguaje natural
modelos Transformer
T5-Small
generación de código
Artificial Intelligence
Natural Language Processing
Transformer models
code generation
Área de conocimiento :
CDU: Ciencias aplicadas: Ingeniería. Tecnología
Tipo de documento :
info:eu-repo/semantics/bachelorThesis
Derechos de acceso:
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
Aparece en las colecciones:
TFG-Ingeniería Informática en Tecnologías de la Información



Creative Commons La licencia se describe como: Atribución-NonComercial-NoDerivada 4.0 Internacional.