Por favor, use este identificador para citar o enlazar este ítem: https://hdl.handle.net/11000/30273

"Attention is all you need". Arquitectura Transformers: descripción y aplicaciones


Vista previa

Ver/Abrir:
 TFG-Nasimba Tipan, Alexis Fabian.pdf

6,64 MB
Adobe PDF
Compartir:
Título :
"Attention is all you need". Arquitectura Transformers: descripción y aplicaciones
Autor :
Nasimba Tipan, Alexis Fabian
Tutor:
Peñalver Benavent, Antonio  
Editor :
Universidad Miguel Hernández de Elche
Departamento:
Departamentos de la UMH::Ingeniería de Computadores
Fecha de publicación:
2023-06
URI :
https://hdl.handle.net/11000/30273
Resumen :
El procesado del lenguaje natural, más conocido por sus siglas en ingles NPL (Natural lenguage processing), ha ido evolucionando constantemente a lo largo de los años, llegando a estar presente en herramientas que el usuario común usa a diario, como es el traductor de Google. Esta rama del famoso Machine Learning ha tenido una aceptación muy grande entre la comunidad científica y entre las empresas, lo que está permitiendo un desarrollo vertiginoso. Algunas de las aplicaciones más comunes de estos algoritmos de NPL, están en la clasificación de textos, traductores de idioma o la generación de texto. Debido a su gran versatilidad ya se están utilizando para la resolución de problemas del mundo real. En esta búsqueda de las soluciones más eficientes a los problemas de un mundo cada más digitalizado, se han realizado avances en las investigaciones de nuevos algoritmos para la comprensión y generación de texto, como son los Transformers, la red neuronal con mayor acogida en este ámbito hasta el momento, debido a su gran potencial demostrado en modelos de lenguaje grandes como GPT- 4 o LaMDA. El objetivo de este proyecto es llevar a cabo un estudio profundo de la red neural conocida como Transformer, empezando por sus inicios, las redes neuronales que le preceden, su estructura y funcionamiento, su aplicación práctica en modelos actuales y finalmente resolveremos un problema mediante la elaboración de la red neuronal, entrenamiento y pruebas, pudiendo así realizar un análisis completo de los resultados obtenidos.
Palabras clave/Materias:
Inteligencia Artificial (IA)
redes neuronales
arquitectura transformer
Procesamiento del Lenguaje Natural (PLN)
modelos basados en transformers
Área de conocimiento :
CDU: Ciencias aplicadas: Ingeniería. Tecnología
Tipo de documento :
info:eu-repo/semantics/bachelorThesis
Derechos de acceso:
info:eu-repo/semantics/openAccess
Aparece en las colecciones:
TFG-Ingeniería Informática en Tecnologías de la Información (ELCHE)



Creative Commons La licencia se describe como: Atribución-NonComercial-NoDerivada 4.0 Internacional.