Uso de la IA en educación: una alerta ética

Uso de la IA en educación: una alerta ética

Durante el Neurofest 2025 se advirtió sobre un riesgo que debe llamar la atención del sector educativo: el uso de la IA en educación puede generar atrofia cognitiva por desuso, favoreciendo una forma de pensamiento delegada, menos activa y con menor profundidad reflexiva.

Más allá de la eficiencia y la productividad, este fenómeno revela un problema de fondo: la IA ya está integrada en los procesos de aprendizaje, pero muchas instituciones conviven con ella sin criterios pedagógicos claros ni marcos éticos que orienten su uso. Cuando la tecnología deja de asistir y comienza a sustituir procesos centrales del pensamiento, se debilita la autonomía intelectual y el aprendizaje profundo.

El costo cognitivo del uso de la IA en educación

No se trata solo de comodidad tecnológica. Es una señal de que la IA ya media el pensamiento y que su uso sin lineamientos deja a las instituciones vulnerables en cuatro frentes clave:

  • Autonomía cognitiva: delegación del razonamiento y la toma de decisiones.
  • Aprendizaje profundo: reducción del pensamiento crítico y la comprensión conceptual.
  • Autoría académica: confusión entre apoyo tecnológico y producción intelectual propia.
  • Calidad educativa: normalización de aprendizajes superficiales que deterioran los estándares formativos.

Riesgos del uso de la IA sin criterios

Desde ETHIALAB, una ética del uso de la IA aplicada a la educación implica, como mínimo:

  1. Lineamientos claros de uso: definir para qué sí y para qué no puede emplearse la IA en actividades académicas.
  2. Formación ética y cognitiva: capacitar a docentes y estudiantes sobre riesgos, límites y sesgos de la IA.
  3. Diseño pedagógico activo: promover escritura, argumentación y resolución de problemas que exijan esfuerzo mental.
  4. Cultura de pensamiento crítico: valorar la autoría, la reflexión y el error como partes del aprendizaje.

Ética del uso de la IA en educación

La pregunta ya no es si usaremos inteligencia artificial en educación, sino cómo evitar que la conveniencia debilite la inteligencia humana. La adopción responsable de la IA no ocurre por inercia: se diseña, se acompaña y se evalúa.

Si tu institución aún no cuenta con criterios claros para el uso pedagógico de la IA, en ETHIALAB podemos ayudarte a trazar una ruta de acción que fortalezca el pensamiento crítico y proteja el aprendizaje profundo.

Leonardo Jiménez Loza

Leonardo Jiménez Loza

Leonardo Jiménez Loza es Cofundador y CEO de ETHIALab. Es investigador en el campo de las ciencias sociales y humanas. Experto en temas de ética y apropiación de la tecnología en ámbitos educativos.