Privacidad de datos e inteligencia artificial en educación

Privacidad de datos e inteligencia artificial en educación

La privacidad de datos inteligencia artificial se ha convertido en una de las discusiones más urgentes para escuelas y universidades. El problema ya no es sólo si la IA puede apoyar la docencia o facilitar tareas, sino qué información se introduce en estas herramientas, quién la controla, cómo se procesa y qué riesgos abre para estudiantes, docentes e instituciones. Organismos como la UNESCO advierten que la IA puede aportar beneficios relevantes a la educación, pero también ha avanzado más rápido que los marcos de política y regulación; y UNICEF subraya que, cuando hay niñas, niños o adolescentes involucrados, la protección de datos y la privacidad deben tratarse como un requisito central, no accesorio.

¿Por qué importa la privacidad de datos inteligencia artificial en educación?

La privacidad de datos inteligencia artificial importa porque muchas herramientas de IA funcionan a partir de la información que las personas introducen: textos, documentos, imágenes, audios, nombres, correos, casos de estudiantes, calificaciones, evaluaciones o incluso descripciones de situaciones personales. En educación, ese riesgo es especialmente delicado porque no sólo están en juego datos administrativos, sino también trayectorias académicas, desempeño, contextos de vulnerabilidad y, en muchos casos, información de menores de edad. La OCDE ha señalado que los avances recientes de la IA, en particular la generativa, han abierto nuevas preguntas sobre gobernanza de datos y privacidad que no pueden abordarse como si fueran un tema separado del diseño y uso de la IA.

Qué datos no deben compartirse con herramientas de inteligencia artificial

Datos personales identificables

Uno de los primeros principios de la privacidad de datos inteligencia artificial es evitar subir información que identifique directamente a una persona. Aquí entran nombres completos, correos electrónicos, números de teléfono, matrículas, CURP, direcciones, listas de alumnos o cualquier dato que permita reconocer de forma directa a un estudiante, docente o miembro del personal. UNICEF insiste en que los sistemas de IA deben proteger los datos y la privacidad de niñas, niños y adolescentes, y recomienda enfoques de privacy by design, es decir, protección desde el diseño mismo del sistema.

Calificaciones, evaluaciones y expedientes

Tampoco deberían compartirse calificaciones individuales, observaciones de desempeño, rúbricas completas asociadas a personas identificables, expedientes académicos, historiales de conducta o comentarios docentes que permitan reconstruir el perfil de un alumno. Aunque una herramienta de IA pueda parecer útil para resumir o redactar retroalimentación, introducir estos materiales sin anonimización puede comprometer la privacidad institucional y estudiantil. Este punto se vuelve aún más sensible cuando la IA empieza a intervenir en procesos de evaluación. Por eso también conviene revisar nuestra nota sobre ChatGPT para docentes: usos, límites y riesgos en el aula.

Información sensible o de contexto personal

En educación es frecuente trabajar con casos, tutorías, acompañamiento emocional, situaciones familiares, adaptaciones pedagógicas o contextos personales. Ese tipo de información no debería cargarse en herramientas de IA abiertas, sobre todo cuando contiene elementos que puedan revelar salud, condiciones familiares, trayectorias difíciles, discapacidad, situación económica o cualquier otro dato sensible. La guía de UNICEF sobre IA y niñez insiste en que la IA debe respetar derechos, bienestar y mejores intereses de la infancia, lo que incluye un tratamiento especialmente cuidadoso de sus datos.

Imágenes, voz y datos biométricos

La privacidad de datos inteligencia artificial no se limita a texto y documentos. También incluye imágenes, grabaciones de voz, videoclases, fotografías del alumnado, reconocimiento facial o cualquier material que pueda derivar en análisis biométrico o identificación automatizada. Este tema merece especial cuidado porque el carácter “cotidiano” de una imagen o un audio no elimina su sensibilidad. Si quieres profundizar en este ángulo, puedes revisar también nuestra nota sobre privacidad biométrica y reconocimiento facial.

Documentos institucionales no públicos

No deberían compartirse tampoco actas, reportes internos, lineamientos no publicados, documentos de comité, estrategias institucionales, contratos, bases de datos ni materiales con información reservada. A veces el error no está en subir datos personales de un estudiante, sino en introducir información institucional cuya circulación debería estar controlada. La gobernanza de IA incluye precisamente decidir qué información puede salir del entorno institucional y cuál no. En ese sentido, la OCDE conecta explícitamente IA, privacidad y gobernanza de datos como dimensiones inseparables.

Riesgos de privacidad de datos inteligencia artificial para docentes, alumnos e instituciones

Pérdida de control sobre la información

Uno de los principales riesgos es que docentes o estudiantes introduzcan información sin tener claro qué ocurre después con ella: cuánto tiempo se conserva, qué controles existen, si el servicio ofrece opciones de gestión de datos o si la institución tiene condiciones contractuales adecuadas. OpenAI, por ejemplo, distingue entre distintos controles de datos según el tipo de servicio y explica en su Data Controls FAQ que hay configuraciones para decidir cómo se usan ciertas conversaciones, mientras que en soluciones empresariales y educativas ofrece compromisos de privacidad y controles adicionales.

Exposición innecesaria de estudiantes

En contextos educativos, una mala práctica de privacidad no sólo afecta a quien sube la información, sino a terceros: estudiantes, familias, docentes o equipos completos. UNICEF insiste en que la IA centrada en la niñez debe proteger la privacidad y los datos de niños y adolescentes, y que esto requiere marcos regulatorios, supervisión y responsabilidad. Dicho de otro modo: no basta con que la herramienta “funcione”; también debe respetar derechos y reducir exposición indebida.

Uso informal de IA sin lineamientos claros

Otro riesgo habitual es que la IA ya se use dentro de la institución, pero sin reglas compartidas. Cada docente decide por su cuenta qué herramienta usar, qué datos introducir y hasta dónde confiar en la plataforma. El problema ahí no es sólo técnico, sino institucional: se pierde trazabilidad, coherencia y capacidad de respuesta frente a incidentes. La UNESCO ha insistido en que la integración de IA en educación requiere orientación de política y desarrollo de capacidades, no sólo adopción espontánea de herramientas.

Dependencia de plataformas sin evaluación previa

Muchas instituciones usan herramientas de IA porque son accesibles, populares o rápidas, sin haber evaluado suficientemente condiciones de privacidad, retención de datos o controles de seguridad. Este es un error estratégico. Antes de normalizar el uso de una herramienta, conviene revisar al menos sus políticas de privacidad, controles de datos y condiciones para entornos educativos o empresariales. OpenAI, por ejemplo, publica información específica sobre privacidad y seguridad para organizaciones, donde indica que no entrena sus modelos con datos de clientes empresariales por defecto y que ofrece controles reforzados de retención en esos entornos.

Qué deben hacer los docentes para proteger la privacidad de datos inteligencia artificial

Anonimizar antes de usar

Si realmente necesitan usar IA para trabajar con un caso, un texto o una situación académica, el primer paso es anonimizar: quitar nombres, matrículas, correos, rasgos identificables y cualquier elemento que permita reconocer a la persona o institución. No es una solución mágica, pero sí una práctica mínima de reducción de riesgo.

Evitar cargar información sensible

La regla práctica más útil es simple: si un documento no debería circular libremente fuera de la institución, tampoco debería subirse a una IA abierta sin criterios claros. Esto incluye evaluaciones, tutorías, reportes individuales y cualquier información delicada de estudiantes o personal.

Revisar controles y condiciones de la herramienta

Antes de usar una plataforma, conviene revisar qué controles de datos ofrece. En el caso de OpenAI, los servicios incluyen distintas opciones de gestión de datos y configuraciones según el tipo de cuenta, y también existen compromisos específicos para clientes educativos y empresariales.

No confundir comodidad con seguridad

Que una herramienta sea popular o fácil de usar no significa que sea adecuada para cualquier dato. En educación, la privacidad de datos inteligencia artificial exige prudencia: la conveniencia nunca debería ser el único criterio.

Qué deben hacer las instituciones educativas

Definir una política institucional de uso de IA

La privacidad de datos no puede quedar en decisiones aisladas. Las escuelas y universidades necesitan lineamientos claros sobre qué herramientas están permitidas, qué datos no pueden subirse, quién autoriza ciertos usos y qué protocolos deben seguirse. Si quieres profundizar en esa línea, conviene enlazar esta nota con nuestra guía sobre política institucional de uso de IA en universidades.

Capacitar a docentes y personal

La alfabetización en IA no debería limitarse a aprender prompts o descubrir herramientas nuevas. También debe incluir privacidad, seguridad, anonimización, gestión de riesgos y responsabilidad institucional. La UNESCO enmarca la integración ética de la IA precisamente en términos de capacidades, no sólo de acceso tecnológico.

Evaluar herramientas antes de adoptarlas

Antes de recomendar una herramienta a toda la comunidad, la institución debería evaluar sus condiciones de privacidad, gobierno de datos y adecuación al contexto educativo. La OCDE sostiene que IA, privacidad y gobernanza de datos deben abordarse conjuntamente, lo que vuelve insuficiente cualquier adopción basada sólo en entusiasmo tecnológico.

Diseñar criterios específicos para menores de edad

Cuando la comunidad incluye niñas, niños o adolescentes, las exigencias deben ser mayores. UNICEF establece de forma explícita la necesidad de proteger sus datos y privacidad, asegurar seguridad, transparencia y cumplimiento normativo en los sistemas de IA que los afectan.

¿Tu institución ya usa IA, pero no sabe qué datos está exponiendo?

Este suele ser el problema real: la IA ya está presente, pero la institución todavía no ha identificado si su uso es improvisado, dependiente o realmente gobernado.

Por eso en ETHIA-LAB desarrollamos una herramienta para detectar el nivel de adopción y riesgo institucional frente al uso de IA.

Conoce la Escala de uso de la Inteligencia Artificial en instituciones educativas

Con nuestra Escala de uso de la Inteligencia Artificial en instituciones educativas puedes identificar si tu escuela o universidad está usando IA de forma reactiva, dependiente, alineada o estratégicamente gobernada.

No se trata sólo de saber si ya usan herramientas de IA, sino de entender qué datos están en riesgo, qué criterios faltan y qué decisiones urge formalizar.

Si quieres pasar del uso informal de IA a una estrategia institucional con criterios claros de privacidad, evaluación y gobernanza, este es un muy buen punto de partida.
👉 Conoce la Escala y descubre en qué nivel está tu institución

Desireé Torres Lozano

Desireé Torres Lozano

Desireé Torres Lozano es filósofa, académica y especialista en ética e inteligencia artificial en educación. En ETHIALab diseña criterios, diagnósticos y estrategias institucionales para el uso responsable de la IA en escuelas y universidades, con énfasis en gobernanza, integridad académica, privacidad y pertinencia pedagógica.