Política de uso de IA: qué debe incluir una institución educativa

Política de uso de IA: qué debe incluir una institución educativa

La política de uso de IA ya no es un documento opcional para escuelas y universidades. Mientras docentes, estudiantes y áreas administrativas incorporan herramientas de inteligencia artificial en tareas de redacción, planeación, evaluación, análisis y producción de contenidos, muchas instituciones siguen operando sin criterios claros sobre qué sí se puede hacer, qué no, bajo qué condiciones y con qué responsabilidades.

Ese vacío no es menor. Cuando una institución no define una política de uso de IA, deja en manos de decisiones aisladas cuestiones tan sensibles como la autoría académica, la protección de datos, la transparencia frente al uso de herramientas externas, los sesgos algorítmicos o la sustitución indebida del juicio profesional docente. Organismos como la UNESCO y la OCDE han insistido en que el desarrollo y uso de la IA debe sostenerse en principios como transparencia, equidad, supervisión humana y rendición de cuentas.

En educación, esto significa algo muy concreto: no basta con permitir o prohibir herramientas. Una institución necesita establecer criterios compartidos para orientar su uso de forma pedagógicamente pertinente, éticamente responsable y organizacionalmente sostenible. Ese es justamente el tipo de trabajo que en ETHIA-LAB colocamos en el centro: vincular el uso de IA con gobernanza, integridad académica y responsabilidad institucional.

¿Qué es una política de uso de IA?

Una política de uso de IA es el conjunto de lineamientos institucionales que define cómo puede utilizarse la inteligencia artificial dentro de una escuela, universidad o centro educativo. Su función no es sólo regular herramientas, sino establecer principios, límites, procesos y responsabilidades para que la incorporación de estas tecnologías no debilite la formación, la integridad académica ni la protección de la comunidad educativa.

Dicho de otra forma: una política de uso de IA no se reduce a decir “se permite ChatGPT” o “se prohíbe su uso en tareas”. Lo que debe hacer es ordenar la relación entre tecnología, enseñanza, evaluación, datos personales y responsabilidad institucional.

¿Por qué una institución educativa necesita una política de uso de IA?

Porque la IA ya entró al aula, a la oficina académica y a los procesos administrativos, con o sin permiso formal. Y cuando una institución no cuenta con reglas claras, aparecen al menos cinco problemas frecuentes.

1. Confusión sobre qué constituye uso legítimo

No toda ayuda con IA es fraude, pero tampoco todo uso es pedagógicamente válido. Sin criterios institucionales, docentes y estudiantes interpretan de forma distinta dónde termina el apoyo y dónde comienza la sustitución indebida del trabajo académico. Este problema se conecta directamente con lo que ya hemos analizado en El doble estándar de la IA educativa: prohibida para alumnos, usada por docentes.

2. Riesgos para la integridad académica

La IA obliga a replantear categorías como autoría, originalidad, declaración de uso, trazabilidad del proceso y formas de evaluación. El problema no se resuelve sólo con detectores, sino con lineamientos claros y rediseño pedagógico.

3. Exposición de datos personales y sensibles

Diversas guías para escuelas advierten que una de las preguntas centrales al evaluar herramientas de IA es si los datos de estudiantes o personal pueden ser utilizados para entrenar modelos, cómo se almacenan y qué controles existen sobre esa información. El documento del Future of Privacy Forum sobre vetting de herramientas de IA para escuelas insiste justamente en esta revisión previa.

4. Uso desordenado entre áreas

Sin política, cada docente, coordinación o departamento adopta herramientas distintas, con criterios distintos y sin coherencia institucional. Esto termina debilitando la capacidad de gobernanza y seguimiento.

5. Pérdida de control estratégico

La institución puede terminar dependiendo de plataformas externas sin haber definido previamente sus umbrales de riesgo, sus finalidades educativas ni sus condiciones mínimas de uso. Algo similar ocurre también en niveles directivos cuando la transformación digital avanza sin una arquitectura ética clara, como explicamos en IA en la alta dirección: liderazgo, gobernanza y el riesgo de transformar sin transformar.

Qué debe incluir una política de uso de IA

Una política sólida no tiene que ser interminable, pero sí debe cubrir los puntos esenciales. Estos son los componentes que no deberían faltar.

1. Propósito y alcance

Lo primero es dejar claro para qué existe la política y a quién aplica. Debe especificar si se dirige a estudiantes, docentes, personal administrativo, autoridades, investigadores o a toda la comunidad educativa. También debe indicar si abarca procesos académicos, evaluativos, administrativos, de comunicación institucional o todos ellos.

Sin esta delimitación, la política corre el riesgo de convertirse en una declaración general sin aplicabilidad real.

2. Principios institucionales de uso

Aquí se establece la postura de fondo de la institución. No se trata sólo de reglas operativas, sino de los criterios rectores que orientarán decisiones futuras. Los más importantes suelen ser:

  • supervisión humana
  • transparencia en el uso
  • protección de datos
  • equidad y no discriminación
  • pertinencia pedagógica
  • responsabilidad y trazabilidad
  • integridad académica

Este punto es clave porque conecta la política con estándares ampliamente reconocidos. La Recomendación de la UNESCO sobre la Ética de la Inteligencia Artificial coloca en el centro la dignidad humana, la equidad, la transparencia y la supervisión humana; la OCDE enfatiza IA confiable, respeto a derechos humanos y responsabilidad.

3. Definiciones básicas

Muchas políticas fallan porque usan términos ambiguos. Conviene incluir un apartado breve con definiciones operativas como:

  • inteligencia artificial
  • IA generativa
  • uso asistido
  • uso automatizado
  • datos personales
  • autoría
  • declaración de uso de IA
  • herramienta autorizada y herramienta no autorizada

No hace falta volver el documento técnico en exceso, pero sí evitar zonas grises que después generen conflictos.

4. Usos permitidos, restringidos y no permitidos

Este es uno de los apartados más importantes. La política debe distinguir entre:

Usos permitidos: por ejemplo, lluvia de ideas, apoyo preliminar para planeación, generación de borradores no definitivos, creación de materiales de apoyo con revisión humana, traducciones iniciales o síntesis exploratorias.

Usos restringidos: por ejemplo, diseño de reactivos, evaluación automatizada, análisis de desempeño estudiantil, generación de retroalimentación masiva, uso de datos institucionales o producción de materiales sin validación disciplinar.

Usos no permitidos: por ejemplo, entregar como propio un trabajo generado por IA sin declaración, cargar datos sensibles en plataformas no autorizadas, usar IA para sustituir el juicio docente en decisiones académicas, o emplearla para vigilancia invasiva o decisiones opacas sobre estudiantes.

Una buena política no demoniza la herramienta, pero tampoco normaliza cualquier uso.

5. Criterios de integridad académica

La política debe indicar de manera expresa cómo se relaciona la IA con la autoría, el plagio, la colaboración legítima y la honestidad académica. Algunas preguntas que conviene responder son:

  • ¿Cuándo debe declararse el uso de IA?
  • ¿Qué tipo de apoyo puede recibir un estudiante?
  • ¿Qué evidencia del proceso puede solicitarse?
  • ¿En qué actividades está prohibido su uso?
  • ¿Cómo se evaluará el trabajo cuando exista apoyo de IA?

Este punto no puede quedar suelto. Si la institución no define criterios de integridad académica frente a IA, la aplicación de sanciones o permisos será inconsistente.

6. Protección de datos y privacidad

Toda política de uso de IA en educación debe incorporar un apartado específico sobre datos. No basta con decir “usen la herramienta con cuidado”. La institución tiene que establecer criterios como:

  • qué tipo de información no debe introducirse en plataformas abiertas
  • si pueden cargarse nombres, calificaciones, trabajos estudiantiles o datos sensibles
  • qué herramientas han sido revisadas o autorizadas
  • qué condiciones mínimas debe cumplir un proveedor
  • si los datos podrían usarse para entrenamiento del modelo
  • quién aprueba herramientas nuevas

Las guías recientes para escuelas insisten en la necesidad de vetar herramientas considerando uso de datos, explicabilidad y cumplimiento legal antes de adoptarlas. El policy brief del Future of Privacy Forum puede servir como referencia técnica inicial.

7. Responsabilidades por actor

Una política eficaz distribuye responsabilidades. Debe quedar claro qué corresponde a cada parte.

Autoridades: definir lineamientos, aprobar herramientas, establecer mecanismos de seguimiento y atender incidentes.
Docentes: decidir usos pedagógicamente pertinentes, informar criterios a sus grupos, revisar resultados y no delegar sin supervisión.
Estudiantes: declarar usos cuando corresponda, respetar límites de apoyo permitido y no presentar producción automatizada como trabajo propio.
Áreas tecnológicas o jurídicas: revisar plataformas, riesgos, cumplimiento, contratos y tratamiento de datos.

Sin esta distribución, la política se convierte en una carga difusa que nadie implementa del todo.

8. Criterios pedagógicos

Éste suele ser el elemento que más se olvida. Una política de uso de IA no debe centrarse sólo en riesgos legales o disciplinarios; también debe preguntarse si el uso fortalece o debilita la formación.

Por eso conviene incluir criterios como:

  • que el uso de IA tenga una finalidad educativa clara
  • que no sustituya procesos formativos esenciales
  • que favorezca comprensión, pensamiento crítico o producción situada
  • que el docente conserve la mediación y el criterio profesional
  • que el recurso generado con IA sea revisado antes de llevarse al aula

En educación, el problema no es únicamente si algo “se puede hacer”, sino si conviene formativamente hacerlo. Este enfoque coincide con la lógica de formación crítica, ética y pedagógicamente pertinente que hemos planteado en nuestro trabajo institucional desde ETHIA-LAB.

9. Revisión de sesgos, errores y alucinaciones

La política debe reconocer que los sistemas de IA pueden producir errores, simplificaciones, contenidos inventados o respuestas sesgadas. La UNESCO ha reiterado que la transparencia, la responsabilidad y la supervisión humana son condiciones necesarias precisamente porque estas tecnologías no son neutrales ni infalibles.

Por eso, el documento debe dejar claro que ningún resultado generado por IA puede usarse sin revisión humana suficiente, especialmente en contextos de evaluación, acompañamiento, orientación o toma de decisiones académicas.

10. Procedimientos de implementación

Una política no sirve si sólo se publica. Debe indicar cómo se implementará. Por ejemplo:

  • capacitación inicial para docentes y personal
  • comunicación clara a estudiantes
  • formatos de declaración de uso
  • evaluación de herramientas antes de adoptarlas
  • canal para reportar incidentes
  • mecanismos periódicos de revisión

Además de marcos éticos y de política pública, también puede ser útil revisar enfoques de gestión del riesgo como el AI Risk Management Framework del NIST, que organiza la gobernanza y la administración de riesgos en torno a funciones como gobernar, mapear, medir y gestionar.

11. Actualización periódica

La IA cambia demasiado rápido como para redactar una política fija durante años. La institución debe prever revisiones periódicas, idealmente al menos una vez por ciclo escolar o cuando cambien de forma importante las herramientas utilizadas, los marcos regulatorios o los riesgos detectados.

¿Tu institución ya usa IA, pero todavía no tiene lineamientos claros? En ETHIA-LAB ayudamos a escuelas y universidades a diagnosticar riesgos, definir criterios y construir políticas de uso de IA alineadas con integridad académica, privacidad, gobernanza y pertinencia pedagógica.

Desireé Torres Lozano

Desireé Torres Lozano

Desireé Torres Lozano es filósofa, académica y especialista en ética e inteligencia artificial en educación. En ETHIALab diseña criterios, diagnósticos y estrategias institucionales para el uso responsable de la IA en escuelas y universidades, con énfasis en gobernanza, integridad académica, privacidad y pertinencia pedagógica.