Por favor, use este identificador para citar o enlazar este ítem: https://hdl.handle.net/11000/35542

La privacidad de los LLM en la enseñanza obligatoria


Vista previa

Ver/Abrir:
 TFM POVEDA SANCHEZ, HECTOR.pdf

3,44 MB
Adobe PDF
Compartir:
Título :
La privacidad de los LLM en la enseñanza obligatoria
Autor :
Poveda Sánchez, Héctor
Tutor:
Ramos Martínez, Julio Alberto
Editor :
Universidad Miguel Hernández de Elche
Departamento:
Departamentos de la UMH::Ciencias Sociales y Humanas
Fecha de publicación:
2024-09
URI :
https://hdl.handle.net/11000/35542
Resumen :
El uso de modelos de lenguaje grande (LLM, por sus siglas en inglés) como herramientas de inteligencia artificial generativa ha ganado popularidad en los últimos años en entornos educativos, ofreciendo nuevas oportunidades para la personalización del aprendizaje y elaboración de materiales de apoyo al docente. Sin embargo, su implementación en aulas de primaria y secundaria plantea desafíos significativos en términos de privacidad y seguridad de los datos personales los estudiantes. Este trabajo realiza una revisión exhaustiva de la literatura sobre los riesgos asociados al uso de estas tecnologías enfocándose en dos áreas clave: la exposición de información personal de los estudiantes y el riesgo de que estos modelos generen y difundan información falsa, lo que podría afectar negativamente tango al proceso de aprendizaje como a la privacidad del alumnado. En primer lugar, se examinan los riesgos de privacidad inherentes al uso de LLM, destacando cómo la información proporcionada por los estudiantes puede ser recopilada, almacenada y potencialmente expuesta o mal utilizada. Se analizan tres modelos de IA utilizados comúnmente en entornos educativos: ChatGPT, Copilot y Gemini, evaluando cómo cada uno maneja la privacidad de los datos y qué medidas se están implementando para proteger la información de los usuarios. En segundo lugar, se aborda el problema de la desinformación generada por estas herramientas, explorando los mecanismos que podrían evitar que los estudiantes internalicen información incorrecta como verdadera. Finalmente, se presentan propuestas para mejorar la privacidad y la veracidad de la información en el uso de LLM en educación, incluyendo la implementación de políticas de privacidad más estrictas, la integración de mecanismos de verificación de hechos y la educación digital para estudiantes y profesores. Las conclusiones subrayan la necesidad de un enfoque equilibrado que maximice los beneficios educativos de estas tecnologías mientras se minimizan los riesgos asociados.
Notas:
Especialidad: Matemáticas
Palabras clave/Materias:
Inteligencia artificial
Modelos de lenguaje grande
Desinformación
Políticas de privacidad
Tipo de documento :
info:eu-repo/semantics/masterThesis
Derechos de acceso:
info:eu-repo/semantics/openAccess
Aparece en las colecciones:
TFM - M.U Formación del Profesorado ESO y Bachillerato, FP y Enseñanzas de Idiomas



Creative Commons La licencia se describe como: Atribución-NonComercial-NoDerivada 4.0 Internacional.