Please use this identifier to cite or link to this item:
https://hdl.handle.net/11000/35542
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | Ramos Martínez, Julio Alberto | - |
dc.contributor.author | Poveda Sánchez, Héctor | - |
dc.contributor.other | Departamentos de la UMH::Ciencias Sociales y Humanas | es_ES |
dc.date.accessioned | 2025-02-05T11:11:08Z | - |
dc.date.available | 2025-02-05T11:11:08Z | - |
dc.date.created | 2024-09 | - |
dc.identifier.uri | https://hdl.handle.net/11000/35542 | - |
dc.description | Especialidad: Matemáticas | es_ES |
dc.description.abstract | El uso de modelos de lenguaje grande (LLM, por sus siglas en inglés) como herramientas de inteligencia artificial generativa ha ganado popularidad en los últimos años en entornos educativos, ofreciendo nuevas oportunidades para la personalización del aprendizaje y elaboración de materiales de apoyo al docente. Sin embargo, su implementación en aulas de primaria y secundaria plantea desafíos significativos en términos de privacidad y seguridad de los datos personales los estudiantes. Este trabajo realiza una revisión exhaustiva de la literatura sobre los riesgos asociados al uso de estas tecnologías enfocándose en dos áreas clave: la exposición de información personal de los estudiantes y el riesgo de que estos modelos generen y difundan información falsa, lo que podría afectar negativamente tango al proceso de aprendizaje como a la privacidad del alumnado. En primer lugar, se examinan los riesgos de privacidad inherentes al uso de LLM, destacando cómo la información proporcionada por los estudiantes puede ser recopilada, almacenada y potencialmente expuesta o mal utilizada. Se analizan tres modelos de IA utilizados comúnmente en entornos educativos: ChatGPT, Copilot y Gemini, evaluando cómo cada uno maneja la privacidad de los datos y qué medidas se están implementando para proteger la información de los usuarios. En segundo lugar, se aborda el problema de la desinformación generada por estas herramientas, explorando los mecanismos que podrían evitar que los estudiantes internalicen información incorrecta como verdadera. Finalmente, se presentan propuestas para mejorar la privacidad y la veracidad de la información en el uso de LLM en educación, incluyendo la implementación de políticas de privacidad más estrictas, la integración de mecanismos de verificación de hechos y la educación digital para estudiantes y profesores. Las conclusiones subrayan la necesidad de un enfoque equilibrado que maximice los beneficios educativos de estas tecnologías mientras se minimizan los riesgos asociados. | es_ES |
dc.format | application/pdf | es_ES |
dc.format.extent | 32 | es_ES |
dc.language.iso | spa | es_ES |
dc.publisher | Universidad Miguel Hernández de Elche | es_ES |
dc.rights | info:eu-repo/semantics/openAccess | es_ES |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0/ | * |
dc.subject | Inteligencia artificial | es_ES |
dc.subject | Modelos de lenguaje grande | es_ES |
dc.subject | Desinformación | es_ES |
dc.subject | Políticas de privacidad | es_ES |
dc.title | La privacidad de los LLM en la enseñanza obligatoria | es_ES |
dc.type | info:eu-repo/semantics/masterThesis | es_ES |

View/Open:
TFM POVEDA SANCHEZ, HECTOR.pdf
3,44 MB
Adobe PDF
Share: