>

Blogs

Samuel TRIGUERO

Innovación en espiral

Shadow AI en Educación: Por qué regular a ciegas es un error

La IA ya está dentro de tu organización educativa. La hayas invitado o no.

A veces llega de forma planificada. Pero a menudo entra por la puerta de atrás: docentes utilizando sus cuentas personales gratuitas, alumnos consultando chatbots para tareas evaluables o administrativos resumiendo actas con herramientas gratuitas no verificadas.

Ese uso “por libre” se llama Shadow AI: prácticas de IA que ocurren fuera del marco de gobernanza del centro.

El riesgo real no es usar IA. El riesgo es usarla sin criterios compartidos: ¿Qué herramientas? ¿Con qué datos? ¿Para qué tareas?

Si intentas regular sin conocer el uso real, crearás reglas imposibles de cumplir. Por eso, antes de lanzar protocolos complejos, necesitas un diagnóstico rápido.

¿Qué es Shadow AI y por qué aparece en tu centro?

Shadow AI es el uso no supervisado de Inteligencia Artificial (especialmente generativa) para enseñar, aprender o gestionar. Es “sombra” porque es invisible para el departamento de TI y la dirección: no hay rastro, no hay control y los datos salen del perímetro de seguridad del centro.

La analogía:
Es como si cada aula instalara su propia cerradura “comprada online” para proteger la puerta. La puerta cierra, sí, pero el director no tiene la llave maestra y nadie sabe cuántas copias existen.

¿Por qué crece esta sombra?

  • Presión: los plazos aprietan y la IA alivia la carga.
  • Falta de alternativas: si el centro no me da una herramienta segura, uso la gratuita.
  • Vacío normativo: si no hay reglas claras sobre evaluación, cada uno improvisa.

Por qué el diagnóstico debe ir antes que la norma

Regular sin diagnóstico es como diseñar un plan de evacuación sin conocer los planos del edificio: puede quedar muy bonito en papel, pero no salvará a nadie.

El error común: prohibir “usar IA en evaluación” sin ofrecer alternativas.
El resultado: el uso continúa, pero ahora se oculta.

Un diagnóstico previo te permite separar el grano de la paja: identificar los usos valiosos y bloquear los de alto riesgo.

Diagnóstico mínimo viable: del rumor al mapa (Mes-1)

No necesitas una auditoría de seis meses. En tu hoja de ruta de gobernanza, el Mes 1 debe centrarse en “auditar la realidad” sin juzgar.

1. Inventario: ¿Quién usa qué?

Lanza encuestas anónimas (clave para la sinceridad) segmentadas por rol: profesorado, alumnado y PAS. Sus incentivos y riesgos son diferentes.

Qué buscar:

  • Frecuencia.
  • Tareas reales (¿hacen rúbricas o redactan correos?).
  • Tipo de acceso (cuenta personal vs. corporativa).

Ejemplo: quizá descubras que el PAS usa más IA para burocracia que los docentes para dar clase.

2. Mapa de datos: el semáforo de privacidad

El riesgo no lo marca la herramienta, sino el dato que le das.

  • Bajo riesgo: generar un esquema de lección (datos públicos).
  • Alto riesgo: resumir un informe psicopedagógico (datos sensibles).

La clave: identificar dónde se están introduciendo datos personales o propiedad intelectual del centro.

3. Matriz de riesgos

Cruza la probabilidad de uso con el impacto del error.

Si un docente usa un chatbot público para corregir exámenes (datos de alumnos + decisión de nota), tienes una alerta roja.
Si lo usa para idear dinámicas de grupo, es luz verde.

Clasifica los usos en:

  • Aprobados
  • Restringidos
  • Prohibidos

4. Indicadores rápidos (KPIs)

Para tomar decisiones, necesitas números, no sensaciones:

  • Índice Shadow AI: ¿Qué porcentaje de tu equipo usa herramientas “que no sabe” si están aprobadas?
  • Brecha de alfabetización: ¿Saben tus docentes anonimizar un prompt antes de enviarlo?

Del diagnóstico a la acción (Meses 2–4)

Una vez tienes el mapa, la gobernanza deja de ser un muro y se convierte en una barandilla: no frena, pero evita caídas.

  • Mes 2: publica tu Política de Uso Aceptable (basada en la realidad, no en la teoría).
  • Mes 3: lanza “Pilotos Quick Wins”. Ejemplo: estandarizar un asistente para responder correos administrativos (alto impacto, bajo riesgo).
  • Mes 4: evalúa y estandariza.

Errores que multiplican el Shadow AI

  • Diagnóstico punitivo: si el objetivo se percibe como fiscalización, la transparencia desaparecerá. Debes dejar claro que buscas soluciones, no culpables.
  • Prohibir sin dar alternativas: es como cerrar una puerta sin abrir otra; la gente saltará por la ventana.
  • Falta de canal de dudas: si no hay a quién preguntar, preguntarán a Google.

3 preguntas para tu equipo directivo

Si quieres empezar mañana, plantea esto en la próxima reunión:

  • ¿Qué parte del trabajo del centro se está “reescribiendo” con IA ahora mismo sin que lo sepamos?
  • Si mañana una familia o empresa nos pregunta cómo protegemos sus datos frente a la IA, ¿tenemos una respuesta real, o solo un papel firmado?
  • ¿Qué tres tareas repetitivas podríamos delegar oficialmente a la IA para liberar tiempo a los docentes?

En resumen: tus 3 ideas clave

Si solo recuerdas tres cosas de este artículo, que sean estas:

  • La IA invisible ya existe: no esperes a tener una política perfecta para actuar. Tus datos ya están circulando en herramientas gratuitas.
  • Diagnosticar no es juzgar: el objetivo del primer mes es entender por qué tu equipo usa IA “en la sombra” (necesidad) para ofrecerles una vía segura (solución).
  • Gobernanza es habilitar: no se trata de prohibir ChatGPT (o cualquier otra herramienta similar), sino de enseñar cuándo y cómo usarla sin comprometer la privacidad.

Referencias y lecturas recomendadas

  • Agencia Española de Protección de Datos (2025): Política interna de uso de IA.
  • ISO/IEC 42001:2023 – AI Management System.
  • UNESCO (2023): Guidance for generative AI in education.

De la idea al proyecto, y del proyecto al resultado

Sobre el autor

Economista, apasionado por la innovación, y futbolista frustrado,... Entre nosotros, no encuentro nada más interesante que seguir aprendiendo,... En este blog quiero compartir enfoques y experiencias prácticas, no tanto sobre innovaciones, sino sobre cómo innovar.


enero 2026
MTWTFSS
   1234
567891011
12131415161718
19202122232425
262728293031