Por favor, use este identificador para citar o enlazar este ítem:
https://hdl.handle.net/11000/30273
Registro completo de metadatos
Campo DC | Valor | Lengua/Idioma |
---|---|---|
dc.contributor.advisor | Peñalver Benavent, Antonio | - |
dc.contributor.author | Nasimba Tipan, Alexis Fabian | - |
dc.contributor.other | Departamentos de la UMH::Ingeniería de Computadores | es_ES |
dc.date.accessioned | 2023-11-28T08:23:33Z | - |
dc.date.available | 2023-11-28T08:23:33Z | - |
dc.date.created | 2023-06 | - |
dc.identifier.uri | https://hdl.handle.net/11000/30273 | - |
dc.description.abstract | El procesado del lenguaje natural, más conocido por sus siglas en ingles NPL (Natural lenguage processing), ha ido evolucionando constantemente a lo largo de los años, llegando a estar presente en herramientas que el usuario común usa a diario, como es el traductor de Google. Esta rama del famoso Machine Learning ha tenido una aceptación muy grande entre la comunidad científica y entre las empresas, lo que está permitiendo un desarrollo vertiginoso. Algunas de las aplicaciones más comunes de estos algoritmos de NPL, están en la clasificación de textos, traductores de idioma o la generación de texto. Debido a su gran versatilidad ya se están utilizando para la resolución de problemas del mundo real. En esta búsqueda de las soluciones más eficientes a los problemas de un mundo cada más digitalizado, se han realizado avances en las investigaciones de nuevos algoritmos para la comprensión y generación de texto, como son los Transformers, la red neuronal con mayor acogida en este ámbito hasta el momento, debido a su gran potencial demostrado en modelos de lenguaje grandes como GPT- 4 o LaMDA. El objetivo de este proyecto es llevar a cabo un estudio profundo de la red neural conocida como Transformer, empezando por sus inicios, las redes neuronales que le preceden, su estructura y funcionamiento, su aplicación práctica en modelos actuales y finalmente resolveremos un problema mediante la elaboración de la red neuronal, entrenamiento y pruebas, pudiendo así realizar un análisis completo de los resultados obtenidos. | es_ES |
dc.format | application/pdf | es_ES |
dc.format.extent | 172 | es_ES |
dc.language.iso | spa | es_ES |
dc.publisher | Universidad Miguel Hernández de Elche | es_ES |
dc.rights | info:eu-repo/semantics/openAccess | es_ES |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0/ | * |
dc.subject | Inteligencia Artificial (IA) | es_ES |
dc.subject | redes neuronales | es_ES |
dc.subject | arquitectura transformer | es_ES |
dc.subject | Procesamiento del Lenguaje Natural (PLN) | es_ES |
dc.subject | modelos basados en transformers | es_ES |
dc.subject.other | CDU::6 - Ciencias aplicadas::62 - Ingeniería. Tecnología | es_ES |
dc.title | "Attention is all you need". Arquitectura Transformers: descripción y aplicaciones | es_ES |
dc.type | info:eu-repo/semantics/bachelorThesis | es_ES |
Ver/Abrir:
TFG-Nasimba Tipan, Alexis Fabian.pdf
6,64 MB
Adobe PDF
Compartir:
La licencia se describe como: Atribución-NonComercial-NoDerivada 4.0 Internacional.