Hablar hoy de una política institucional de uso de IA ya no es opcional para las universidades. La inteligencia artificial ha entrado en la docencia, la evaluación, la investigación y la gestión académica con una velocidad que muchas veces supera la capacidad institucional de regularla, comprenderla y orientarla. Frente a este escenario, las universidades necesitan construir criterios claros para incorporar la IA con responsabilidad ética, pertinencia pedagógica y visión de futuro.
Esta brecha no es menor. Cuando una universidad no cuenta con una política institucional de uso de IA sólida, las decisiones quedan dispersas entre criterios individuales, respuestas improvisadas y prácticas desiguales. Un docente puede prohibir lo que otro promueve; un área administrativa puede adoptar herramientas sin lineamientos sobre datos; una coordinación puede exigir integridad académica sin haber definido con precisión qué uso de IA es legítimo, cuál debe declararse y cuál resulta indebido.
Por eso, hablar hoy de uso ético de la inteligencia artificial en universidades no basta. Lo que se necesita es traducir esa preocupación en una política institucional de uso de IA: un marco compartido que articule principios, responsabilidades, criterios de decisión, protocolos y formación. No se trata de frenar la innovación, sino de volverla inteligible, responsable y pertinente.
Por qué una universidad necesita una política institucional de uso de IA
Muchas instituciones han comenzado a discutir la IA a partir de sus efectos inmediatos: tareas hechas con ChatGPT, dudas sobre plagio, temor por la sustitución del trabajo docente o entusiasmo por automatizar procesos. Pero una política institucional no debe nacer sólo del miedo ni de la fascinación tecnológica. Debe surgir del reconocimiento de que la IA modifica prácticas formativas, relaciones de autoría, criterios de evaluación, manejo de datos y estructuras de responsabilidad.
En el ámbito universitario, la discusión sobre inteligencia artificial en la educación superior se ha vuelto cada vez más urgente, especialmente por la necesidad de traducir la innovación tecnológica en criterios institucionales claros, formación pertinente y estructuras de gobernanza sostenibles.
Sin una política clara, aparecen al menos cinco problemas frecuentes: inconsistencia institucional, fragilidad de la integridad académica, riesgos en privacidad y protección de datos, dependencia operativa sin criterio pedagógico y ausencia de gobernanza. Por eso, la pregunta ya no es si las universidades deben hablar de IA, sino cómo construir una gobernanza de IA en educación superior que esté a la altura de sus responsabilidades formativas, éticas e institucionales.
Qué debe incluir una política institucional de uso de IA
1. Principios rectores
Toda política necesita una base normativa explícita. Entre los principios mínimos deberían aparecer la responsabilidad humana en la toma de decisiones, la transparencia sobre el uso de herramientas de IA, la protección de datos personales y sensibles, la equidad e inclusión en el acceso y uso, la pertinencia pedagógica y académica, la supervisión humana de los resultados generados y la integridad académica. Estos principios pueden dialogar con referentes internacionales ya consolidados, como la Recomendación sobre la Ética de la Inteligencia Artificial de la UNESCO, que ofrece una base sólida para pensar el desarrollo y uso responsable de sistemas de IA, o Los Principios de Chapultepec, recién publicados
2. Definiciones institucionales claras
Una buena política debe definir, al menos de forma básica, conceptos como inteligencia artificial, IA generativa, uso asistido, uso declarado, automatización, supervisión humana, autoría, sesgo y herramienta institucional. Nombrar bien es gobernar mejor.
3. Alcance de la política
La universidad debe especificar a quién aplica la política: personal docente, estudiantes, áreas directivas, personal administrativo, investigación y producción académica. También debe aclarar en qué ámbitos aplica: docencia, evaluación, diseño de materiales, investigación, gestión interna, atención estudiantil y comunicación institucional.
4. Criterios de uso permitidos, restringidos y no permitidos
Este es uno de los núcleos más importantes. La comunidad necesita saber no sólo que la IA debe usarse bien, sino cómo se clasifica su uso. Por ejemplo, pueden distinguirse usos permitidos, usos permitidos con declaración y usos restringidos o no permitidos. Esta clasificación reduce incertidumbre y hace posible una conversación más madura sobre lineamientos de IA para docentes y estudiantes.
Cómo definir la gobernanza de una política institucional de uso de IA
Una política institucional fracasa cuando nadie sabe quién la sostiene. La gobernanza de IA no consiste sólo en tener reglas, sino en contar con una arquitectura de responsabilidades. La institución debe definir qué instancia diseña la política, cuál la valida, quién la actualiza y qué áreas participan en su implementación. En muchas universidades esto puede traducirse en un comité o grupo de trabajo interdisciplinario donde participen autoridades académicas, innovación educativa, tecnologías de información, áreas jurídicas e integridad académica.
Esta conversación puede enriquecerse con marcos globales como los Principios de IA de la OCDE, que ayudan a pensar una IA confiable, alineada con derechos humanos, transparencia, robustez y rendición de cuentas.
Cómo regula la política institucional de uso de IA la docencia y la evaluación
Uno de los campos donde la necesidad de una política resulta más urgente es la docencia. La IA no sólo cambia los medios con los que se produce información; cambia las condiciones mismas de la enseñanza, la evaluación y la autoría. Por ello, una política institucional debe responder preguntas concretas sobre cuándo el uso de IA es formativo, cuándo es auxiliar, cuándo debe declararse y cuándo constituye una sustitución indebida del trabajo intelectual. Esto fortalece la integridad académica e IA mucho más que cualquier vigilancia aislada.
Privacidad y datos en una política institucional de uso de IA
Otra dimensión crítica del uso ético de la inteligencia artificial en universidades es la protección de datos. Muchas herramientas funcionan en entornos externos a la institución, con términos de uso poco leídos y dinámicas de procesamiento que la mayoría de las personas desconoce. Por ello, una política institucional debe incluir criterios mínimos sobre qué tipo de información puede o no puede ingresarse en plataformas de IA, uso de datos personales de estudiantes, manejo de evaluaciones, uso de cuentas institucionales o personales y responsabilidades de seguridad y resguardo.
Formación y alfabetización para implementar una política institucional de uso de IA
Una política institucional no transforma prácticas por sí sola. Necesita ser acompañada por procesos de formación. De lo contrario, corre el riesgo de convertirse en un documento formalmente correcto y prácticamente irrelevante. Por eso, toda política debería ir unida a una estrategia de alfabetización en IA para distintos perfiles de la comunidad universitaria. Aquí la formación no debe reducirse a aprender prompts; debe incluir comprensión del funcionamiento y límites de la IA, criterios de uso responsable, implicaciones para la integridad académica y capacidades para discernir cuándo una herramienta es pertinente y cuándo no.
Primeros pasos para crear una política institucional de uso de IA
- Realizar un diagnóstico institucional sobre herramientas ya utilizadas, fines de uso, riesgos y vacíos normativos.
- Identificar los principales escenarios de uso: docencia, investigación, comunicación, servicios escolares y gestión interna.
- Construir una matriz de riesgos y oportunidades para evitar tanto el alarmismo como la ingenuidad tecnológica.
- Definir una estructura de gobernanza con responsables claros, mecanismos de revisión y protocolos de atención.
- Redactar lineamientos claros, diferenciados y aplicables para cada actor institucional.
- Desarrollar una estrategia de formación, comunicación e implementación.
- Establecer mecanismos de revisión y actualización periódica.
Por qué una política institucional de uso de IA fortalece la responsabilidad universitaria
En el ámbito universitario, incorporar IA no es sólo una decisión técnica. También es una decisión formativa, ética e institucional. Hablar de política institucional de uso de IA es, en el fondo, hablar de proyecto educativo. No se trata sólo de regular herramientas, sino de decidir cómo una institución quiere habitar críticamente una transformación tecnológica que ya está en marcha.
¿Tu universidad ya está usando IA, pero aún no cuenta con lineamientos claros? En ETHIA-LAB acompañamos a instituciones educativas en el diseño de diagnósticos, políticas, criterios de gobernanza y procesos de formación para un uso ético y responsable de la inteligencia artificial.
- Privacidad de datos e inteligencia artificial en educación
- Jóvenes e inteligencia artificial: entre la adopción cotidiana y el desafío formativo
- Política de uso de IA: qué debe incluir una institución educativa
- ChatGPT para docentes: usos, límites y riesgos en el aula
- Inteligencia artificial en la educación: riesgos y beneficios
