Please use this identifier to cite or link to this item:
https://hdl.handle.net/11000/31614
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | Ñeco García, Ramón | - |
dc.contributor.author | Llopis Llorens, Alejandro | - |
dc.contributor.other | Departamentos de la UMH::Ingeniería de Sistemas y Automática | es_ES |
dc.date.accessioned | 2024-02-29T11:45:46Z | - |
dc.date.available | 2024-02-29T11:45:46Z | - |
dc.date.created | 2023-09 | - |
dc.identifier.uri | https://hdl.handle.net/11000/31614 | - |
dc.description.abstract | Este proyecto pretende ser un análisis comparativo de las diferentes técnicas y estratégias más utilizadas para evitar el “overfitting” o sobreajuste en aplicaciones fundamentadas en “deep learning” o aprendizaje profundo. Por lo tanto, a lo largo del documento se tratarán temas tales como el aprendizaje profundo, las redes neuronales convolucionales, el sobreajuste, los conjuntos de datos o las diferentes técnicas para evitar el sobreajuste. El sobreajuste se define como un fenómeno donde la red neuronal convolucional se ajusta excesivamente a los datos de entrenamiento, aprendiendo también del ruido y otras variaciones de forma que no se puede generalizar correctamente a nuevos datos. Quizás el párrafo anterior no resulte completamente claro, así que quisiera explicar lo más importante mediante un ejemplo. Imaginemos que la red neuronal es como un estudiante que aprende a partir de ejemplos. Le damos ejemplos de datos para que los estudie y aprenda cómo funcionan. Sin embargo, cuando hay pocos ejemplos o la red es muy complicada, la situación se complica. En lugar de entender realmente los ejemplos, la red parece memorizarlos. Esto se convierte en un problema cuando enfrenta nuevos ejemplos que no ha visto antes. La red no sabe cómo lidiar con ellos y comete errores. Esto ocurre porque la red convolucional memoriza los ejemplos de entrenamiento y no es capaz de “entender” o generalizar lo aprendido. Este desafío, el sobreajuste, es recurrente en las aplicaciones de inteligencia artificial que emplean el aprendizaje profundo. Por esta razón, se han desarrollado a lo largo del tiempo multitud de técnicas para abordar este problema. En este proyecto, se han seleccionado seis de las técnicas más comunes y recomendadas, las cuales se han aplicado en dos redes neuronales convolucionales representativas. La primera red, de pequeña dimensión, se utiliza con el conjunto de datos MNIST. La segunda, de tamaño moderado, se emplea con el conjunto de datos “dogs-vs-cats”. Además, se suele aplicar más de una técnica a la vez, por ello también se analizará y comparará las principales uniones de técnicas. | es_ES |
dc.format | application/pdf | es_ES |
dc.format.extent | 135 | es_ES |
dc.language.iso | spa | es_ES |
dc.publisher | Universidad Miguel Hernández de Elche | es_ES |
dc.rights | info:eu-repo/semantics/openAccess | es_ES |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0/ | * |
dc.subject | Inteligencia Artificial (IA) | es_ES |
dc.subject | Machine Learning | es_ES |
dc.subject | Deep Learning | es_ES |
dc.subject | redes neuronales artificiales | es_ES |
dc.subject.other | CDU::6 - Ciencias aplicadas::62 - Ingeniería. Tecnología | es_ES |
dc.title | Análisis comparativo de estrategias para la reducción del sobreajuste en aplicaciones basadas en Deep Learning | es_ES |
dc.type | info:eu-repo/semantics/bachelorThesis | es_ES |
View/Open:
TFG- Llopis Llorens, Alejandro.pdf
3,03 MB
Adobe PDF
Share: