Please use this identifier to cite or link to this item:
https://hdl.handle.net/11000/26760
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | Sainz-Pardo Auñón, José Luis | - |
dc.contributor.author | Singh, Gurwinder | - |
dc.contributor.other | Departamentos de la UMH::Estadística, Matemáticas e Informática | es_ES |
dc.date.accessioned | 2022-05-02T12:09:59Z | - |
dc.date.available | 2022-05-02T12:09:59Z | - |
dc.date.created | 2021-06 | - |
dc.identifier.uri | http://hdl.handle.net/11000/26760 | - |
dc.description.abstract | Este trabajo es realizado sobre las redes neuronales que son un sub campo de Machine Learning. Las redes neuronales utilizan supervised learning para aprender, las redes neuronales tienen su inspiración en las neuronas biológicas. En este trabajo se demuestra la estructura sobre la cual se asientan las redes neuronales. En el paso de forward propagation vemos como las redes neuronales pasan la información de una capa a otra. Utilizando el producto matricial agilizamos este proceso de pasar la información hacía adelante para predecir. Una vez hecho la predicción necesitamos alguna manera para medir el error que se comete por lo tanto se explica lo que es loss function y cómo mide el error. Los weights (pesos) que son los parámetros de nuestra red neuronal, son optimizados haciendo uso del cálculo y su regla de cadena. Podemos optimizar, entrenar los pesos para que el modelo cometa menos error. El paso para entrenar los pesos es conocido como Backpropagation, en este paso vemos como se calcula el gradiente y los trucos que se utilizan para calcular el gradiente para capas iniciales. En todos los modelos de Machine learning puede haber problemas de sobreajuste (Overfitting), en las redes neuronales vemos algunas de las técnicas utilizadas para prevenir este sobre ajuste y que los modelos puedan generalizarse mejor. Una vez aprendida la estructura básica observamos como una imagen es tratada por un modelo convolutional y los distintos frameworks que existen para facilitar la programación de las redes neuronales. Para demostrar todos los conceptos teóricos se aplican las redes neuronales a distintos tipos de problemas como: regresión, clasificación, clasificación de dígitos y observamos la precisión que alcanzan estas en dichas tareas. | es_ES |
dc.format | application/pdf | es_ES |
dc.format.extent | 79 | es_ES |
dc.language.iso | spa | es_ES |
dc.publisher | Universidad Miguel Hernández de Elche | es_ES |
dc.rights | info:eu-repo/semantics/openAccess | es_ES |
dc.rights | Attribution-NonCommercial-NoDerivatives 4.0 Internacional | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0/ | * |
dc.subject | redes neuronales | es_ES |
dc.subject | machine learning | es_ES |
dc.subject | lenguaje de programación Python | es_ES |
dc.subject.other | CDU::3 - Ciencias sociales::31 - Demografía. Sociología. Estadística::311 - Estadística | es_ES |
dc.title | Neural networks from scratch | es_ES |
dc.type | info:eu-repo/semantics/bachelorThesis | es_ES |
View/Open:
Singh,Gurwinder.pdf
4,19 MB
Adobe PDF
Share: