En días recientes se dio a conocer un caso en Zacatecas que debe encender alertas en todo el sector educativo: al menos 400 alumnos habrían sido víctimas de imágenes sexuales falsas creadas con IA. De acuerdo con lo reportado, padres de familia identificaron que tres estudiantes tomaron fotografías de sus compañeros, las manipularon con herramientas de IA y las publicaron en Instagram. Más allá del impacto inmediato, el caso expone un problema de fondo: muchas instituciones hoy conviven con IA sin reglas claras, sin formación preventiva y sin una ruta de respuesta ante incidentes.
En ETHIALAB seguimos este tipo de eventos con máxima atención porque representan el escenario más delicado del mal uso de la IA: cuando la tecnología se convierte en un mecanismo de daño, humillación y vulneración de la dignidad. En contextos escolares, el riesgo es mayor por la dinámica social, la presión de grupo y la velocidad con la que el contenido se difunde. Además, cuando una institución no tiene un marco de actuación, el problema no solo crece: se desordena. Aparecen dudas sobre qué hacer, a quién acudir, cómo contener la difusión, cómo acompañar a las víctimas y cómo establecer responsabilidades con claridad y justicia.
Por qué urgen protocolos de ética para el uso de IA en escuelas
Este hecho no se trata únicamente de “una mala conducta” o “una broma que se salió de control”. Es una señal de que la IA ya está en el aula —en manos de alumnos, docentes y comunidad— y que la ausencia de protocolos deja a las instituciones vulnerables en cuatro frentes clave:
- Privacidad e identidad: uso de imágenes de terceros sin consentimiento y su difusión.
- Integridad y convivencia: daño emocional, acoso, humillación y ruptura de confianza comunitaria.
- Normatividad: falta de lineamientos para investigar, sancionar, reparar y comunicar.
- Reputación institucional: la percepción pública de “no supimos responder” puede agravar la crisis.
Qué deben incluir los protocolos de ética para el uso de IA en escuelas
Un protocolo de ética y gobernanza de IA no es un documento “para cumplir”, sino una herramienta práctica para prevenir y actuar. En ETHIALAB recomendamos que, como mínimo, se construyan estos componentes:
- Política de uso de IA (clara y conocida)
Qué está permitido, qué está prohibido (por ejemplo: manipulación de imágenes de terceros), y cuáles son las consecuencias. - Capacitación breve y continua
Para docentes, directivos y alumnos: qué es IA generativa, riesgos reales, límites, consentimiento, privacidad, y convivencia digital. - Ruta de respuesta ante incidentes
Pasos concretos: contención, preservación de evidencia, canales de denuncia, acompañamiento psicológico, comunicación interna y coordinación con instancias pertinentes. - Cultura institucional de prevención
No basta con sancionar: se necesita alfabetización ética y digital para que la comunidad entienda el impacto real del daño.
Una invitación necesaria
Casos como el de Zacatecas muestran que el daño causado por imágenes falsas generadas con IA no puede minimizarse como una simple broma escolar. Como ha subrayado UNICEF en su posicionamiento sobre el abuso mediante deepfakes, este tipo de contenido produce un daño real y exige respuestas firmes de protección y prevención.
Si tu institución todavía no cuenta con lineamientos claros, en ETHIALAB podemos ayudarte a realizar un dhttps://ethialab.com/escala-de-uso-de-la-inteligencia-artificial-en-instituciones-educativas/iagnóstico inicial y trazar una ruta de acción para prevenir riesgos, fortalecer la confianza y proteger a tu comunidad educativa.
