
Claves para que los Equipos Directivos pasen de la incertidumbre a la acción con criterio, rigor y responsabilidad.
Hay dos maneras de responder a la irrupción de la inteligencia artificial en los centros educativos. La primera consiste en levantar barreras, multiplicar las prohibiciones y alimentar la narrativa del riesgo hasta que la institución quede paralizada por la precaución. La segunda —la que propone la Comisión Europea en sus Directrices actualizadas sobre el uso ético de la IA y los datos en la enseñanza y el aprendizaje (noviembre de 2025)— consiste en formar criterio solvente, establecer marcos de acción claros y liderar el proceso con inteligencia institucional.
Para los Equipos Directivos de los Centros de Formación Profesional, este documento no es solo una referencia normativa abstracta: es una hoja de ruta práctica que interpela directamente a la naturaleza de la FP. Un sistema formativo cuya razón de ser es preparar profesionales competentes para un mercado laboral que la IA ya está transformando de manera estructural no puede permitirse una relación ambivalente —ni mucho menos temerosa— con esta tecnología.
Uno de los primeros mensajes que este documento lanza con claridad es que la IA no es un fenómeno futuro ante el que podamos reservarnos la decisión. Desde que en 2022 se publicó la primera versión de estas directrices, ha habido un crecimiento exponencial en el uso de la IA por parte de docentes y estudiantes, impulsado por el acceso público a la IA generativa.
Esta urgencia es especialmente intensa en el contexto de la FP. Los sectores productivos a los que sirven los centros —industria, sanidad, servicios, construcción, logística, hostelería, comercio— están incorporando herramientas de IA a una velocidad que supera los ciclos habituales de actualización curricular. Un egresado de FP que no ha desarrollado criterio para trabajar con IA, o que directamente no sabe cómo hacerlo, llega al mercado laboral con un déficit que ninguna competencia técnica tradicional compensa.
Los datos del informe del JRC de 2025 son elocuentes: los docentes se encuentran entre el diez por ciento de las profesiones más expuestas a la IA, y el ochenta y siete por ciento de los ciudadanos europeos considera que todo el profesorado debería estar equipado con competencias para usar y comprender la IA. Si esto es urgente para la educación en general, en la FP adquiere una dimensión adicional: el profesorado de FP es, simultáneamente, docente y referente profesional. Su relación con la IA no es solo pedagógica; es también una cuestión de actualización en su propio campo de especialización.
Frente a este escenario, la actitud de parálisis institucional no protege al centro: lo desconecta de la realidad productiva que tiene la obligación de reflejar. Un Equipo Directivo que lidera desde el conocimiento es infinitamente más eficaz que uno que gestiona desde la prohibición.
Una de las aportaciones más valiosas del documento es la desmitificación sistemática de los malentendidos que rodean a la IA. Muchas resistencias institucionales se alimentan de percepciones inexactas que conviene desmontar con rigor.
Confundir la IA con la IA generativa es uno de los errores más extendidos. En realidad, la IA lleva años operando en entornos educativos y profesionales a través de plataformas de aprendizaje adaptativo, sistemas de calificación automatizada o herramientas de detección temprana de alumnado en riesgo. En los sectores productivos donde se forman los egresados de FP, la IA —en sus múltiples formas, no solo generativa— ya es una herramienta de trabajo cotidiana.
Asumir que la IA es neutral y objetiva es igualmente erróneo: las herramientas de IA están entrenadas principalmente con datos generados por humanos y reflejan los valores, supuestos y sesgos presentes en esos datos. Esta es una enseñanza especialmente relevante para la FP, donde las decisiones mediadas por IA pueden afectar a la orientación, la evaluación de competencias o el acceso a recursos formativos.
La preocupación de que la IA vaya a sustituir al docente también carece de fundamento si se utiliza adecuadamente: puede ayudar a reducir tareas rutinarias, ofrecer información oportuna sobre el progreso del alumnado y crear más espacio para fomentar la creatividad, el pensamiento crítico y la resolución de problemas reales. En la FP, esto se traduce en liberar tiempo para lo que ninguna IA puede replicar: el acompañamiento experto, la transmisión de cultura profesional y la mentoría situada en contextos reales de trabajo.
Formar al profesorado en esta comprensión más precisa y matizada es, en sí mismo, un acto de liderazgo pedagógico de primera magnitud.
Los Equipos Directivos de FP necesitan conocer el ecosistema normativo no para temer sus implicaciones, sino para actuar con seguridad jurídica y ética. El documento articula con claridad los dos pilares regulatorios fundamentales, y ambos tienen consecuencias directas sobre los centros de FP.
El Reglamento de Inteligencia Artificial de la UE (AI Act, 2024) introduce un enfoque basado en el riesgo. El documento es explícito al respecto: las instituciones de educación y formación de todos los niveles están incluidas en su ámbito de aplicación, incluidas las escuelas de formación profesional y la formación continua, con independencia de la edad de los estudiantes o de la modalidad de aprendizaje —presencial, a distancia o mixta—.
En el Anexo III del citado Reglamento, que enumera los sistemas de alto riesgo, se incluyen específicamente las herramientas de IA utilizadas para admisiones, evaluación de resultados de aprendizaje, determinación del nivel educativo apropiado para un individuo y monitorización de comportamientos en exámenes en instituciones de formación profesional. Esto no significa que estas herramientas estén prohibidas: significa que deben cumplir requisitos específicos de supervisión humana, transparencia y no discriminación, y que los centros que las despliegan asumen responsabilidades como operadores.
Dicha norma prohíbe además el uso de sistemas de reconocimiento de emociones en entornos educativos, con independencia del nivel formativo o la modalidad, y esta prohibición aplica plenamente a los centros de FP.
El Reglamento General de Protección de Datos (RGPD) sigue siendo el marco de referencia para la gestión de datos. Los centros de FP actúan como responsables del tratamiento de datos personales de su alumnado —muchos de ellos mayores de edad, pero igualmente protegidos— y están obligados a realizar evaluaciones de impacto antes de implementar sistemas que puedan suponer un riesgo elevado para sus derechos. Conocer estas reglas permite al Equipo Directivo tomar decisiones informadas sobre qué herramientas adoptar, cómo negociar con los proveedores y cómo proteger los derechos de toda la comunidad educativa.
Más allá del cumplimiento normativo, el documento propone cinco dimensiones éticas que deben presidir cualquier política de IA en un centro educativo. En el contexto de la FP, estas dimensiones adquieren una textura específica que merece atención:
Dignidad humana: cada decisión mediada por IA debe respetar la autonomía y el valor intrínseco de cada persona. En los centros de FP, donde conviven perfiles de alumnado muy diversos —jóvenes en primera formación, adultos en reconversión profesional, personas con trayectorias vitales complejas—, este principio exige una sensibilidad institucional particular.
Equidad y no discriminación: las herramientas adoptadas deben garantizar el acceso igualitario a las oportunidades. En la FP, que históricamente ha sido una vía de acceso al empleo para colectivos con menor capital educativo previo, el riesgo de que la IA reproduzca o amplíe desigualdades existentes merece una vigilancia especialmente activa.
Confianza y fiabilidad: una herramienta de IA es fiable cuando es consistentemente confiable, transparente en su funcionamiento, respeta la privacidad, evita sesgos y apoya el aprendizaje de manera coherente con los valores de la comunidad escolar. Para los centros de FP, esto incluye verificar que las herramientas adoptadas son coherentes con los estándares profesionales de los sectores a los que forman.
Integridad académica: usar la IA de manera honesta implica no falsear contribuciones, atribuir correctamente el trabajo de otros y diseñar evaluaciones que sigan siendo válidas. En la FP, donde la evaluación de competencias profesionales tiene consecuencias directas sobre la empleabilidad del egresado, este principio no es retórico: es estructural.
Decisión justificada: cualquier adopción de herramientas de IA debe sustentarse en datos, evidencias y un proceso participativo que involucre a docentes, alumnado y, en el caso de la FP dual, también a las empresas colaboradoras.
Quizás la aportación más práctica del documento para los Equipos Directivos sea su catálogo de preguntas orientadoras, organizadas por dimensiones éticas y diferenciadas entre el nivel docente y el nivel institucional. Estas preguntas pueden utilizarse antes de implementar una herramienta, durante su uso, en claustros o en el diálogo con familias, alumnado y empresas del entorno.
Algunas de las más relevantes para la gestión directiva de un centro de FP:
A estas preguntas del documento, los centros de FP deberían añadir una dimensión propia:
Si el Equipo Directivo puede responder afirmativamente al conjunto de estas preguntas, está ejerciendo un liderazgo responsable. Si no puede, tiene un plan de acción.
El documento es categórico en un punto que los Equipos Directivos de FP no pueden ignorar: el AI Act exige a los proveedores y implementadores de sistemas de IA garantizar un nivel suficiente de alfabetización en IA para su personal, tomando en cuenta sus conocimientos técnicos, experiencia, educación y formación, así como el contexto en que se utilizan los sistemas y las personas a las que van dirigidos.
Esto significa que la formación del profesorado en IA no es una opción de mejora continua: tiene respaldo normativo explícito, y la responsabilidad de garantizarla recae sobre la dirección del centro.
En la FP esta obligación tiene una doble dimensión. La primera es la pedagógica: el profesorado necesita saber cómo integrar la IA en sus prácticas de enseñanza, evaluación y orientación. La segunda es la profesional: el profesorado de FP, como experto sectorial, necesita conocer cómo la IA está transformando los procesos de trabajo en su ámbito de especialización para poder transmitir ese conocimiento con autoridad y actualidad.
Los marcos DigCompEdu y DigComp 3.0 —referenciados explícitamente en el documento— ofrecen estructuras de diagnóstico y planificación formativa que todo Equipo Directivo debería conocer y aplicar. La herramienta SELFIE para Docentes permite a cada profesional autoevaluar su competencia digital e identificar áreas de desarrollo. Son recursos concretos, gratuitos y diseñados específicamente para el contexto europeo.
El documento referencia la estrategia Apply AI de la Comisión Europea (2025), que busca posicionar a las empresas europeas a la vanguardia de la IA en diez sectores estratégicos y mejorar la calidad de los servicios del sector público. Esta estrategia promoverá la formación en alfabetización en IA orientada a la obtención de micro-credenciales, e impulsará la adopción de la IA en todos los sectores económicos y perfiles profesionales.
Para los centros de FP, esto representa una oportunidad de posicionamiento estratégico de primer orden. Los centros que desarrollen ahora capacidad para integrar la IA en sus programas formativos, que diseñen itinerarios de alfabetización en IA para sus estudiantes y que establezcan vínculos con el tejido empresarial para incorporar casos de uso reales estarán en una posición privilegiada en el ecosistema formativo del próximo lustro.
La FP tiene una ventaja competitiva natural en este terreno: su proximidad estructural al mundo productivo le permite conectar la formación en IA con contextos de aplicación profesional reales, algo que ningún otro nivel del sistema educativo puede ofrecer con la misma inmediatez y concreción.
El documento propone un modelo de despliegue de la IA que rechaza tanto la improvisación como el inmovilismo. Sus principios son claros: es necesario un enfoque incremental, introducir las herramientas gradualmente, monitorizar continuamente los posibles efectos y estar dispuestos a rectificar cuando se produzcan consecuencias no deseadas.
El proceso recomendado incluye revisar las herramientas actualmente en uso; establecer políticas y procedimientos claros antes de cualquier nueva adopción; realizar una fase piloto con criterios de evaluación definidos; mantener una relación activa con los proveedores —incluyendo la firma de acuerdos de nivel de servicio que garanticen soporte y cumplimiento normativo—; monitorizar el funcionamiento de forma continua, y comunicar a toda la comunidad educativa qué datos se recogen, con qué finalidad y cómo se protegen.
En el caso de los centros de FP con formación dual, esta comunicación debe extenderse también a las empresas colaboradoras, que en muchos casos son simultáneamente entornos de aprendizaje y potenciales usuarias de las mismas herramientas de IA que el centro está incorporando a su práctica formativa.
Las Directrices actualizadas de la Comisión Europea no están escritas desde el miedo. Están escritas desde la confianza en los profesionales de la educación como agentes de cambio informados y responsables: para apoyar a una amplia gama de docentes y directores —desde los que están comenzando a explorar la IA hasta los que tienen competencias digitales avanzadas—, con el objetivo de ayudarles a tomar decisiones informadas, desarrollar la confianza paso a paso y adquirir las competencias necesarias para aprovechar la IA gestionando los riesgos potenciales.
Para los Equipos Directivos de los Centros de FP, el momento presente tiene una doble exigencia. La primera es común a todo el sistema educativo: liderar desde el conocimiento, no desde la prohibición. La segunda es específica de la naturaleza de la FP: garantizar que el alumnado que sale de sus aulas llega al mercado laboral con competencia real para usar la IA de forma inteligente, ética y profesional en su campo de trabajo.
Esa doble exigencia se sintetiza en un principio de acción directiva: formar, formarse y ofrecer orientaciones de cómo usar la IA de forma inteligente y profesional. No como respuesta a una moda tecnológica, sino como ejercicio de la responsabilidad institucional que define a un centro de FP que está a la altura de su tiempo.
Este artículo se basa en el documento: Comisión Europea (2026). Guidelines on the ethical use of artificial intelligence and data in teaching and learning for Educators. Completado en noviembre de 2025 y publicado bajo licencia Creative Commons CC BY 4.0.