Please use this identifier to cite or link to this item:
https://hdl.handle.net/11000/39613Full metadata record
| DC Field | Value | Language |
|---|---|---|
| dc.contributor.advisor | García Crespi, Francisco Federico | - |
| dc.contributor.author | Bernabeu Marroquí, Santos | - |
| dc.contributor.other | Departamentos de la UMH::Ingeniería de Computadores | es_ES |
| dc.date.accessioned | 2026-03-27T11:03:53Z | - |
| dc.date.available | 2026-03-27T11:03:53Z | - |
| dc.date.created | 2026-02 | - |
| dc.identifier.uri | https://hdl.handle.net/11000/39613 | - |
| dc.description.abstract | Este Trabajo Fin de Grado tiene como objetivo el estudio, aplicación y evaluación del modelo T5-Small para tareas de generación automática de código ensamblador en el entorno académico CODE-2[16]. Dicho entorno, ampliamente utilizado en docencia para la enseñanza de arquitectura de computadores[16], presenta una gramática y sintaxis bien definida que lo convierte en un candidato adecuado para la aplicación de modelos de lenguaje generativos. El trabajo se ha estructurado en torno a dos ejes principales: por un lado, el finetuning del modelo utilizando técnicas avanzadas como Prompt-Tuning, Adapters, Low-Rank Adaptation (LoRA) y Full Fine-Tuning (cap´ıtulo 3); y por otro lado, la aplicación de técnicas de cuantización, concretamente Post-Training Quantization (PTQ), con el fin de reducir el tamaño del modelo y su coste de inferencia (capítulo 4). Para la evaluación se ha diseñado un conjunto de pruebas que abarca métricas estándar en la generación de código: Exact Match, BLEU y ROUGE-L, analizando además el consumo de recursos computacionales, tiempos de entrenamiento y desempeño bajo diferentes configuraciones de entrenamiento y hardware. Los resultados obtenidos confirman que el enfoque de Full Fine-Tuning ofrece la mejor calidad y consistencia en la generación de código, alcanzando un Exact Match del 83% tras optimización de parámetros de decodificación (80% en el modelo entrenado base con dataset de 36k ejemplos). Aunque técnicas diversas fueron evaluadas (Prompt-Tuning, Adapters, LoRA, Full Fine-Tuning), solo Full Fine-Tuning demostró rendimiento suficiente para aplicaciones educativas donde la corrección semántica es crítica. Para contextos con recursos muy limitados, LoRA constituye una alternativa viable aunque con menor precisión. Además, se documentaron limitaciones fundamentales de técnicas alternativas como QAT (incompatible con Transformers en Windows) y poda agresiva (causa colapso del modelo). | es_ES |
| dc.format | application/pdf | es_ES |
| dc.format.extent | 156 | es_ES |
| dc.language.iso | spa | es_ES |
| dc.publisher | Universidad Miguel Hernández de Elche | es_ES |
| dc.rights | info:eu-repo/semantics/openAccess | es_ES |
| dc.rights | Attribution-NonCommercial-NoDerivatives 4.0 Internacional | * |
| dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0/ | * |
| dc.subject | Inteligencia Artificial | es_ES |
| dc.subject | Procesamiento lenguaje natural | es_ES |
| dc.subject | modelos Transformer | es_ES |
| dc.subject | T5-Small | es_ES |
| dc.subject | generación de código | es_ES |
| dc.subject | Artificial Intelligence | es_ES |
| dc.subject | Natural Language Processing | es_ES |
| dc.subject | Transformer models | es_ES |
| dc.subject | code generation | es_ES |
| dc.subject.other | CDU::6 - Ciencias aplicadas::62 - Ingeniería. Tecnología | es_ES |
| dc.title | Fine-Tuning de Modelos de Lenguaje para Generación de Código en CODE-2 | es_ES |
| dc.type | info:eu-repo/semantics/bachelorThesis | es_ES |

View/Open:
TFG-Bernabeu Marroquí, Santos.pdf
5,76 MB
Adobe PDF
Share:
.png)
