Por favor, use este identificador para citar o enlazar este ítem: https://hdl.handle.net/11000/30273
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorPeñalver Benavent, Antonio-
dc.contributor.authorNasimba Tipan, Alexis Fabian-
dc.contributor.otherDepartamentos de la UMH::Ingeniería de Computadoreses_ES
dc.date.accessioned2023-11-28T08:23:33Z-
dc.date.available2023-11-28T08:23:33Z-
dc.date.created2023-06-
dc.identifier.urihttps://hdl.handle.net/11000/30273-
dc.description.abstractEl procesado del lenguaje natural, más conocido por sus siglas en ingles NPL (Natural lenguage processing), ha ido evolucionando constantemente a lo largo de los años, llegando a estar presente en herramientas que el usuario común usa a diario, como es el traductor de Google. Esta rama del famoso Machine Learning ha tenido una aceptación muy grande entre la comunidad científica y entre las empresas, lo que está permitiendo un desarrollo vertiginoso. Algunas de las aplicaciones más comunes de estos algoritmos de NPL, están en la clasificación de textos, traductores de idioma o la generación de texto. Debido a su gran versatilidad ya se están utilizando para la resolución de problemas del mundo real. En esta búsqueda de las soluciones más eficientes a los problemas de un mundo cada más digitalizado, se han realizado avances en las investigaciones de nuevos algoritmos para la comprensión y generación de texto, como son los Transformers, la red neuronal con mayor acogida en este ámbito hasta el momento, debido a su gran potencial demostrado en modelos de lenguaje grandes como GPT- 4 o LaMDA. El objetivo de este proyecto es llevar a cabo un estudio profundo de la red neural conocida como Transformer, empezando por sus inicios, las redes neuronales que le preceden, su estructura y funcionamiento, su aplicación práctica en modelos actuales y finalmente resolveremos un problema mediante la elaboración de la red neuronal, entrenamiento y pruebas, pudiendo así realizar un análisis completo de los resultados obtenidos.es_ES
dc.formatapplication/pdfes_ES
dc.format.extent172es_ES
dc.language.isospaes_ES
dc.publisherUniversidad Miguel Hernández de Elchees_ES
dc.rightsinfo:eu-repo/semantics/openAccesses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectInteligencia Artificial (IA)es_ES
dc.subjectredes neuronaleses_ES
dc.subjectarquitectura transformeres_ES
dc.subjectProcesamiento del Lenguaje Natural (PLN)es_ES
dc.subjectmodelos basados en transformerses_ES
dc.subject.otherCDU::6 - Ciencias aplicadas::62 - Ingeniería. Tecnologíaes_ES
dc.title"Attention is all you need". Arquitectura Transformers: descripción y aplicacioneses_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
Aparece en las colecciones:
TFG-Ingeniería Informática en Tecnologías de la Información (ELCHE)


Vista previa

Ver/Abrir:
 TFG-Nasimba Tipan, Alexis Fabian.pdf

6,64 MB
Adobe PDF
Compartir:


Creative Commons La licencia se describe como: Atribución-NonComercial-NoDerivada 4.0 Internacional.