Por favor, use este identificador para citar o enlazar este ítem: https://hdl.handle.net/11000/35542
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorRamos Martínez, Julio Alberto-
dc.contributor.authorPoveda Sánchez, Héctor-
dc.contributor.otherDepartamentos de la UMH::Ciencias Sociales y Humanases_ES
dc.date.accessioned2025-02-05T11:11:08Z-
dc.date.available2025-02-05T11:11:08Z-
dc.date.created2024-09-
dc.identifier.urihttps://hdl.handle.net/11000/35542-
dc.descriptionEspecialidad: Matemáticases_ES
dc.description.abstractEl uso de modelos de lenguaje grande (LLM, por sus siglas en inglés) como herramientas de inteligencia artificial generativa ha ganado popularidad en los últimos años en entornos educativos, ofreciendo nuevas oportunidades para la personalización del aprendizaje y elaboración de materiales de apoyo al docente. Sin embargo, su implementación en aulas de primaria y secundaria plantea desafíos significativos en términos de privacidad y seguridad de los datos personales los estudiantes. Este trabajo realiza una revisión exhaustiva de la literatura sobre los riesgos asociados al uso de estas tecnologías enfocándose en dos áreas clave: la exposición de información personal de los estudiantes y el riesgo de que estos modelos generen y difundan información falsa, lo que podría afectar negativamente tango al proceso de aprendizaje como a la privacidad del alumnado. En primer lugar, se examinan los riesgos de privacidad inherentes al uso de LLM, destacando cómo la información proporcionada por los estudiantes puede ser recopilada, almacenada y potencialmente expuesta o mal utilizada. Se analizan tres modelos de IA utilizados comúnmente en entornos educativos: ChatGPT, Copilot y Gemini, evaluando cómo cada uno maneja la privacidad de los datos y qué medidas se están implementando para proteger la información de los usuarios. En segundo lugar, se aborda el problema de la desinformación generada por estas herramientas, explorando los mecanismos que podrían evitar que los estudiantes internalicen información incorrecta como verdadera. Finalmente, se presentan propuestas para mejorar la privacidad y la veracidad de la información en el uso de LLM en educación, incluyendo la implementación de políticas de privacidad más estrictas, la integración de mecanismos de verificación de hechos y la educación digital para estudiantes y profesores. Las conclusiones subrayan la necesidad de un enfoque equilibrado que maximice los beneficios educativos de estas tecnologías mientras se minimizan los riesgos asociados.es_ES
dc.formatapplication/pdfes_ES
dc.format.extent32es_ES
dc.language.isospaes_ES
dc.publisherUniversidad Miguel Hernández de Elchees_ES
dc.rightsinfo:eu-repo/semantics/openAccesses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectInteligencia artificiales_ES
dc.subjectModelos de lenguaje grandees_ES
dc.subjectDesinformaciónes_ES
dc.subjectPolíticas de privacidades_ES
dc.titleLa privacidad de los LLM en la enseñanza obligatoriaes_ES
dc.typeinfo:eu-repo/semantics/masterThesises_ES
Aparece en las colecciones:
TFM - M.U Formación del Profesorado ESO y Bachillerato, FP y Enseñanzas de Idiomas


Vista previa

Ver/Abrir:
 TFM POVEDA SANCHEZ, HECTOR.pdf

3,44 MB
Adobe PDF
Compartir:


Creative Commons La licencia se describe como: Atribución-NonComercial-NoDerivada 4.0 Internacional.