Por favor, use este identificador para citar o enlazar este ítem: https://hdl.handle.net/11000/26760
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorSainz-Pardo Auñón, José Luis-
dc.contributor.authorSingh, Gurwinder-
dc.contributor.otherDepartamentos de la UMH::Estadística, Matemáticas e Informáticaes_ES
dc.date.accessioned2022-05-02T12:09:59Z-
dc.date.available2022-05-02T12:09:59Z-
dc.date.created2021-06-
dc.identifier.urihttp://hdl.handle.net/11000/26760-
dc.description.abstractEste trabajo es realizado sobre las redes neuronales que son un sub campo de Machine Learning. Las redes neuronales utilizan supervised learning para aprender, las redes neuronales tienen su inspiración en las neuronas biológicas. En este trabajo se demuestra la estructura sobre la cual se asientan las redes neuronales. En el paso de forward propagation vemos como las redes neuronales pasan la información de una capa a otra. Utilizando el producto matricial agilizamos este proceso de pasar la información hacía adelante para predecir. Una vez hecho la predicción necesitamos alguna manera para medir el error que se comete por lo tanto se explica lo que es loss function y cómo mide el error. Los weights (pesos) que son los parámetros de nuestra red neuronal, son optimizados haciendo uso del cálculo y su regla de cadena. Podemos optimizar, entrenar los pesos para que el modelo cometa menos error. El paso para entrenar los pesos es conocido como Backpropagation, en este paso vemos como se calcula el gradiente y los trucos que se utilizan para calcular el gradiente para capas iniciales. En todos los modelos de Machine learning puede haber problemas de sobreajuste (Overfitting), en las redes neuronales vemos algunas de las técnicas utilizadas para prevenir este sobre ajuste y que los modelos puedan generalizarse mejor. Una vez aprendida la estructura básica observamos como una imagen es tratada por un modelo convolutional y los distintos frameworks que existen para facilitar la programación de las redes neuronales. Para demostrar todos los conceptos teóricos se aplican las redes neuronales a distintos tipos de problemas como: regresión, clasificación, clasificación de dígitos y observamos la precisión que alcanzan estas en dichas tareas.es_ES
dc.formatapplication/pdfes_ES
dc.format.extent79es_ES
dc.language.isospaes_ES
dc.publisherUniversidad Miguel Hernández de Elchees_ES
dc.rightsinfo:eu-repo/semantics/openAccesses_ES
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectredes neuronaleses_ES
dc.subjectmachine learninges_ES
dc.subjectlenguaje de programación Pythones_ES
dc.subject.otherCDU::3 - Ciencias sociales::31 - Demografía. Sociología. Estadística::311 - Estadísticaes_ES
dc.titleNeural networks from scratches_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
Aparece en las colecciones:
TFG - Estadística Empresarial


Vista previa

Ver/Abrir:
 Singh,Gurwinder.pdf

4,19 MB
Adobe PDF
Compartir:


Creative Commons La licencia se describe como: Atribución-NonComercial-NoDerivada 4.0 Internacional.