IA educativa en docentes y alumnos: entre la prohibición y el doble estándar

IA educativa en docentes y alumnos: entre la prohibición y el doble estándar

La IA educativa en docentes y alumnos se ha convertido en un tema urgente para las instituciones que buscan integrar esta tecnología con criterios claros y coherentes. Cuando su uso se permite de forma opaca en algunos actores y se sanciona de manera tajante en otros, aparece una tensión ética que no puede ignorarse. Más que un problema técnico, se trata de una cuestión de integridad, confianza y responsabilidad institucional.

En su artículo The Professors Are Using ChatGPT, and Some Students Aren’t Happy About It, la periodista Kashmir Hill, publicado en The New York Times, pone el dedo en una llaga que muchas instituciones educativas aún no quieren mirar de frente: el conflicto no nace de la tecnología en sí, sino de cómo se usa —y cómo se justifica— dentro del aula. La nota parte de un hecho que ya se repite con frecuencia: estudiantes que detectan rastros de IA en presentaciones, guías de estudio, rúbricas o retroalimentaciones, y que no lo interpretan como innovación pedagógica, sino como pérdida de calidad, de cuidado humano y de coherencia ética. 

Cómo se usa la IA educativa en docentes y alumnos

Lo más relevante, para ETHIA LAB, es que Hill retrata una crisis de confianza. Cuando un alumno percibe que su profesor “terceriza” parte del trabajo docente a un chatbot —sobre todo si eso se traduce en materiales genéricos, errores, tareas mal diseñadas o comentarios “bonitos” pero vacíos— el mensaje que recibe es: “mi aprendizaje no está siendo acompañado con atención real”. Y aquí aparece el punto que nos interesa visibilizar: la educación no es solo transmisión de información; es relación, criterio, responsabilidad y formación de juicio. Si la IA entra sin reglas, lo primero que se rompe no es el contenido: es la credibilidad del proceso educativo. 

IA educativa en docentes y alumnos: diferencias y tensiones

La nota también expone un dilema ético especialmente sensible: el doble estándar. En muchas instituciones, a estudiantes se les prohíbe o se les amenaza con sanciones por usar IA generativa, mientras algunos docentes la usan para planear clases, redactar materiales o incluso apoyar la evaluación… sin decirlo. Esa asimetría se vive como injusticia, y una norma percibida como injusta se vuelve una norma que deja de educar. En términos de cultura institucional, esto genera exactamente lo contrario de lo que se busca: no fomenta integridad, sino una dinámica de “cazar trampas” y “esconder prácticas”, que contamina el ambiente académico. 

Cómo corregir el doble estándar de la IA educativa

Desde la óptica de ETHIA LAB, este caso sirve para ejemplificar por qué una institución necesita un Protocolo de Ética para IA que sea claro y operable, no solo un documento aspiracional. Porque, como muestra Hill, el debate real no es “IA sí o IA no”, sino gobernanza del uso: ¿para qué se permite?, ¿en qué procesos está restringida?, ¿qué debe declararse?, ¿qué se audita?, ¿quién responde cuando algo sale mal? En particular, la evaluación y la retroalimentación son zonas de alto riesgo: si la IA influye en una calificación o en el feedback, el estudiante necesita garantías mínimas de trazabilidad, revisión humana y derecho a réplica. Sin esas garantías, el problema ya no es pedagógico: es ético, reputacional y potencialmente legal. 

Link al artículo (The New York Times):

https://www.nytimes.com/2025/05/14/technology/chatgpt-college-professors.html

Leonardo Jiménez Loza

Leonardo Jiménez Loza

Leonardo Jiménez Loza es Cofundador y CEO de ETHIALab. Es investigador en el campo de las ciencias sociales y humanas. Experto en temas de ética y apropiación de la tecnología en ámbitos educativos.