
La IA ya está dentro de tu organización educativa. La hayas invitado o no.
A veces llega de forma planificada. Pero a menudo entra por la puerta de atrás: docentes utilizando sus cuentas personales gratuitas, alumnos consultando chatbots para tareas evaluables o administrativos resumiendo actas con herramientas gratuitas no verificadas.
Ese uso “por libre” se llama Shadow AI: prácticas de IA que ocurren fuera del marco de gobernanza del centro.
El riesgo real no es usar IA. El riesgo es usarla sin criterios compartidos: ¿Qué herramientas? ¿Con qué datos? ¿Para qué tareas?
Si intentas regular sin conocer el uso real, crearás reglas imposibles de cumplir. Por eso, antes de lanzar protocolos complejos, necesitas un diagnóstico rápido.
Shadow AI es el uso no supervisado de Inteligencia Artificial (especialmente generativa) para enseñar, aprender o gestionar. Es “sombra” porque es invisible para el departamento de TI y la dirección: no hay rastro, no hay control y los datos salen del perímetro de seguridad del centro.
La analogía:
Es como si cada aula instalara su propia cerradura “comprada online” para proteger la puerta. La puerta cierra, sí, pero el director no tiene la llave maestra y nadie sabe cuántas copias existen.
Regular sin diagnóstico es como diseñar un plan de evacuación sin conocer los planos del edificio: puede quedar muy bonito en papel, pero no salvará a nadie.
El error común: prohibir “usar IA en evaluación” sin ofrecer alternativas.
El resultado: el uso continúa, pero ahora se oculta.
Un diagnóstico previo te permite separar el grano de la paja: identificar los usos valiosos y bloquear los de alto riesgo.
No necesitas una auditoría de seis meses. En tu hoja de ruta de gobernanza, el Mes 1 debe centrarse en “auditar la realidad” sin juzgar.
Lanza encuestas anónimas (clave para la sinceridad) segmentadas por rol: profesorado, alumnado y PAS. Sus incentivos y riesgos son diferentes.
Qué buscar:
Ejemplo: quizá descubras que el PAS usa más IA para burocracia que los docentes para dar clase.
El riesgo no lo marca la herramienta, sino el dato que le das.
La clave: identificar dónde se están introduciendo datos personales o propiedad intelectual del centro.
Cruza la probabilidad de uso con el impacto del error.
Si un docente usa un chatbot público para corregir exámenes (datos de alumnos + decisión de nota), tienes una alerta roja.
Si lo usa para idear dinámicas de grupo, es luz verde.
Clasifica los usos en:
Para tomar decisiones, necesitas números, no sensaciones:
Una vez tienes el mapa, la gobernanza deja de ser un muro y se convierte en una barandilla: no frena, pero evita caídas.
Si quieres empezar mañana, plantea esto en la próxima reunión:
Si solo recuerdas tres cosas de este artículo, que sean estas: