- Portada
- 30 de enero de 2026
- Sin Comentarios
- 10 minutos de lectura
Sobre el marco de competencia digital docente en IA de la Generalitat de Cataluña

Detalle de la cubierta del documento Competència digital docent en intel·ligència artificial. / Generalitat de Catalunya. Departament d’Educació i Formació Professional

La inteligencia artificial (IA) entró en la escuela sin pasar por secretaría. No pidió permiso al claustro ni esperó ningún decreto. Simplemente está en clase, o en los hogares de nuestros estudiantes. Y en sus dispositivos digitales. Ante esto, y en un ecosistema donde los marcos y recomendaciones proliferan, llegando al punto en que la sobreinformación desinforma, el Departamento de Educación y Formación Profesional de la Generalitat de Catalunya ha realizado un esfuerzo para ordenar, definir y delimitar conceptos y ámbitos de actuación y, por otra parte, levantar una barandilla normativa competencial. Así nace la Competencia Digital Docente en Inteligencia Artificial.
No es un currículum. No debería ser ninguna imposición. No es, de momento, ningún requisito. Es un marco. Una nueva guía y una declaración de intenciones. Se agradece, vaya por delante. Y también, hay que decirlo, un intento claro de enfriar entusiasmos tecnoutópicos, o tecnosolucionistas, antes de que hagan más daño que bien. Y, seguramente, también será un urticante para tecnófobos.
El documento destila una idea central que lo atraviesa de arriba abajo: la IA no es neutra. No es (sólo) una máquina inocente, no es una simple herramienta digital más (Laba, 2025). Es una tecnología de uso general, con capacidad para condicionar decisiones, procesos educativos y relaciones humanas. Se olvida, acaso no pueda hacerlo un documento oficial, de dar un poco de caña a todos los grandes intereses económicos creados que hay detrás del tema de la IA. Por eso hay que formar a los docentes. Hay que ir con cuidado de no ser nosotros mismos el producto. Pero habría que formarlos de verdad, no sólo con retórica o consideraciones genéricas.
Qué propone exactamente
La propuesta se estructura en cuatro grandes dimensiones: comprensión y uso seguro de la IA, ética y visión humanista, pedagogía con IA y desarrollo profesional. Todo ello desarrollado en tres niveles progresivos: básico, intermedio y avanzado. ¿Una escalera pensada para que cada docente pueda situarse, sin sentirse expulsado del sistema? Pensamos que no es lo mismo la primaria que la secundaria o la formación profesional (FP).
Las referencias se citan, son claras y reconocibles: UNESCO, marcos competenciales europeos, DigCompEdu. El documento no inventa nada nuevo, pero sintetiza (un trabajo laborioso, con todo lo que se ha escrito…) y adapta mucho. Hay ocasiones en que es sólo una traducción esmerada de los marcos internacionales al contexto catalán, con un acento normativo e institucional. Hay más bien prudencia.
Los puntos fuertes del modelo
En mi opinión, el primer gran acierto es conceptual: separar el análisis de la IA de la competencia digital docente (CDD) general. No todo es “saber utilizar herramientas”. La IA introduce riesgos, opacidades y dilemas éticos a un nivel cuantitativo que no existía antes. Tratarla como un artefacto o una extensión menor habría sido un grave error. Sin embargo, habrá que integrar este documento en la CDD más claramente. A todo buen análisis hay que sumar una síntesis.
El segundo acierto es la obsesión, militante, como no podía ser de otra manera, por la seguridad. Protección de datos, sesgos algorítmicos, alucinaciones, transparencia, rendición de cuentas. El documento insiste en que el responsable final siempre es humano. Veremos quién, pero en los centros educativos. Y esto, en tiempos de automatización acrítica, es una toma de posición clara. Ahora bien, a menudo -ha calado con fuerza- hay una antropomorfización en el lenguaje (recordemos que la IA no piensa, no alucina…) que debería vigilarse. Pero por eso se incorpora un glosario final: hay un esfuerzo lingüístico y didáctico en el documento.
El tercer acierto es situar a la ética como clave del discurso. No como anejo decorativo, sino como dimensión estructural. Agencia humana, pensamiento crítico, supervisión docente, límites en la delegación y descarga cognitiva. Aquí el mensaje es inequívoco: la IA puede ayudar, pero no puede pensar por nosotros.
El cuarto acierto es pedagógico. Antes de hablar de herramientas, es necesario hablar de objetivos de aprendizaje. Antes de hablar de automatizar, establecemos criterios didácticos y profesionales. La IA no salva malas prácticas docentes. Las hace más visibles. Ni es un milagro, ni lo va a solucionar todo (Lara y Magro, 2025).
Por último, el documento tiene la virtud de no presentarse como definitivo. Se declara abierto, revisable, actualizable. Una rareza en documentos oficiales. Y un gesto de honestidad intelectual.
Las inevitables sombras
Pero no todo son virtudes. El primer problema es la densidad. El documento es algo largo, conceptualmente exigente para los no iniciados y repleto de terminología, glosarios, indicadores, marcos de competencia cruzados. En muchos centros, simplemente, no habrá tiempo ni energía para digerirlo. Puede hacerse bola. Hay algún buen esquema que puede ayudar, quizás haciendo una evolución gráfica Pokemon, como el famoso caramelo del marco de la CDD.
El segundo problema es la ausencia de obligatoriedad. Sin acreditación, sin incentivos claros y sin vinculación directa a una carrera profesional definida, el riesgo es evidente: que sólo lo lean los convencidos. O los obligados por su situación.
El tercer problema pienso que aparece en el nivel avanzado. Mentoría, liderazgo institucional, creación de herramientas, definición de protocolos. Todo suena muy razonable. Pero todo muy poco realista sin horas, sin recursos y sin reconocimiento claro. El documento presupone un docente con margen estructural, con posibilidad de progresión (¿habría descarga lectiva para los avanzados?) y de tiempo en su vida, algo que a menudo no existe. Hay un punto utópico.
El cuarto problema es la confianza excesiva en la formación individual. Sin una arquitectura sistémica sólida, la responsabilidad recae siempre en el mismo sitio: de nuevo el docente motivado. Y esto desgasta. La gente se cansa, el mínimo esfuerzo en el comportamiento es muy humano (Zipf, 1949).
Ahora bien, debería existir el derecho a no utilizar la IA, a la objeción de conciencia. Aunque sea porque la reducción de su uso, como el de otras tecnologías, es buena para nuestro planeta. Que cada profesional decida dentro de su especialidad. No es lo mismo en las materias de tecnología o en FP, que en otras materias o niveles educativos.
Un mensaje final
Ligado con lo anterior, es cierto que el documento no dice “utilice IA”, sino más bien “sepa qué hace cuando la usa”. No promete milagros. Advierte de riesgos. No vende futuro, y quizá intenta regular un presente muy diverso. Tal vez en esto resida su principal valor. En un contexto de euforia tecnológica, este marco no aplaude con las orejas. Observa. No acelera. Frena un poco. Y en educación, esto no es conservadurismo. Es responsabilidad.
Por último, tenemos una paradoja: se habla mucho de pedagogía con IA en un sistema educativo que todavía no dispone, de forma generalizada, de infraestructuras de IA educativa robustas, auditables y propias. ¿Podremos trabajar, por ejemplo, con modelos de lenguaje propios, libres y de acceso abierto, en local? ¿Nos podremos liberar de las grandes empresas que empiezan a fagocitar el sistema educativo? Es necesaria mucha visión. Perspectiva a largo plazo. Hay poca realidad operativa hacia la independencia de las multinacionales.
Docentes, tenéis lectura para la reflexión. Quizás en Semana Santa, cuando tengamos más tiempo. Como penitencia por el dataísmo.
Referencias:
Generalitat de Catalunya (2025). Competència digital docent en intel·ligència artificial. https://educacio.gencat.cat/web/.content/home/departament/publicacions/monografies/mon-digital/competencia-digital-docent-intelligencia-artificial/competencia-docent-ia.pdf
Laba, N. (2025). AI is not a tool. AI & Society. https://doi.org/10.1007/s00146-025-02784-y
Lara, T. y Magro, C. (2025). IA y educación. Una relación con costuras. Madrid: Trama Editorial. Biblioteca Digital Journey.
Zipf, G.K. (1949). Human Behavior And The Principle Of Least Effort. Cambridge, MA: Addison-Wesley. https://archive.org/details/in.ernet.dli.2015.90211
Fuente: educational EVIDENCE
Derechos: Creative Commons