• Portada
  • 12 de mayo de 2026
  • Sin Comentarios
  • 9 minutos de lectura

IA en la enseñanza técnica: el riesgo de la descarga cognitiva y el «tempo» como deontología

IA en la enseñanza técnica: el riesgo de la descarga cognitiva y el «tempo» como deontología

Imagen creada mediante IA.

 

Licencia Creative Commons

 

Antoni Hernández-Fernández

 

Nuestra comunidad educativa lleva tiempo debatiendo si es necesario incorporar la inteligencia artificial (IA) a la docencia. Pero, en el contexto de los docentes de enseñanzas técnicas, dado que estamos formando profesionales en los sectores tecnológicos, quizás la pregunta pertinente no sea si es necesario, sino cuándo. Y, en medio de un entorno marcado por la presión institucional y mediática por la innovación, en un mercado laboral muy competitivo, esta distinción es crucial.

Tal y como he argumentado previamente, la introducción de cualquier tecnología educativa no debe ser una finalidad en sí misma. Salvo las materias tecnológicas, o momentos específicos del currículum, donde la tecnología educativa es el objeto de estudio (caso de algunas materias de nuestros grados y másteres), la tecnología es un medio. Pero introducirla antes de que el alumno haya adquirido los marcos conceptuales necesarios es contraproducente: genera dependencia instrumental, superficialidad en el aprendizaje y un falso sentimiento de comprensión. La pregunta que debemos hacernos, pues, no es “¿debe usar la IA mi alumno?”, sino “¿ha aprendido ya lo suficiente para poder usarla críticamente?”.

Se ve claramente que dar una calculadora a un alumno de primaria que todavía no sabe multiplicar es perjudicar su aprendizaje, y su desarrollo del cálculo mental. Lo mismo ocurre con los alumnos que, por ejemplo, están aprendiendo los fundamentos de la programación en nuestros campus: utilizar la IA como atajo les perjudica. El tempo, el momento adecuado de introducción, es el primer criterio deontológico de cualquier docente que desee usar la IA con responsabilidad.

 

La descarga cognitiva de la IA generativa

El riesgo no es hipotético. La investigación reciente es inequívoca: cuando los estudiantes utilizan herramientas de IA generativa como atajo, no aprenden, o aprenden menos. El fenómeno tiene nombre técnico: cognitive offloading, o descarga cognitiva (Risko & Gilbert, 2016). Se produce cuando el estudiante externaliza a la máquina las operaciones mentales que debería realizar él: recuperación, síntesis, razonamiento, planificación, creatividad, pensamiento crítico. A corto plazo, los resultados pueden parecer mejores; a medio y largo plazo, el pensamiento de nivel superior -el que esquematiza, por ejemplo, la Taxonomía de Bloom- se ve comprometido (Gerlich, 2025).

La IA generativa es, literalmente, fluidez a demanda. Y el problema es que las tareas difíciles -las desirable difficulties de la literatura pedagógica- son precisamente las que consolidan el aprendizaje, especialmente en la universidad. Cuando el alumno los esquiva, puede obtener una buena nota utilizando los atajos de la IA, pero no construye competencia real. Se ha documentado incluso que el uso prolongado de IA sin regulación lleva a un declive en la retención de la memoria y en la calidad del razonamiento (Lodge & Loble, 2026). Fan et al. (2025) han acuñado el término metacognitive laziness (vagancia metacognitiva) para describir cómo la comodidad de la IA puede erosionar los procesos de autorregulación esenciales para cualquier aprendizaje profundo.

El reto educativo es, pues, doble: evitar que la IA se convierta en una prótesis cognitiva permanente, y crear al mismo tiempo un clima de aula donde el alumno pueda ser honesto sobre su uso de la tecnología. La honesta autoevaluación (¿He aprendido? ¿Entiendo y/o sabría hacer yo lo que ha generado la máquina?) es una competencia que hay que enseñar explícitamente, en especial en la formación técnica que impartimos en la UPC.

 

El código deontológico docente: la tecnología como responsabilidad profesional

La mayor parte del profesorado desconoce que existe un Código Deontológico Docente (CDD) que debería orientar su práctica profesional. El Colegio Oficial de Doctores y Licenciados en Filosofía y Letras y en Ciencias de Cataluña aprobó en 2021 un CDD que incorpora de forma explícita el compromiso del profesorado con el uso responsable y ético de la tecnología (Hernández-Fernández, 2025). Esto no es anecdótico: es el reconocimiento de que cada decisión tecnológica en el aula tiene consecuencias sobre la formación de los profesionales que forjamos en clase, y también de rebote sobre la ciudadanía, la privacidad, la autonomía personal del alumnado y la equidad educativa.

En el contexto educativo, este compromiso debería concretarse en obligaciones bien definidas: actualizar las competencias digitales propias, conocer la normativa sobre protección de datos, prevenir el plagio, analizar los sesgos algorítmicos y los intereses corporativos de las herramientas que se proponen al alumnado, y garantizar la confidencialidad de la información académica. Pero, sobre todo, implica algo más profundo: poner la tecnología al servicio del aprendizaje, y no al revés. Es necesaria una revisión exhaustiva de las actividades que pedimos a los alumnos: ¿se pueden hacer a golpe de clic? ¿Qué actividades planteo que mejoren su aprendizaje, dado el contexto actual?

El uso de la IA en el aula no es opcional ni exclusivo del profesorado de disciplinas técnicas. Afecta a todo el claustro, a todas las áreas. Quizás tenemos, por ahora, alguna excepción que confirma la norma. Pero la deontología, desgraciadamente, sigue ausente tanto en la formación inicial y continua del profesorado, como en las leyes educativas y, aún peor, en la reflexión de buena parte del profesorado.

 

A modo de conclusión

Es necesario incorporar el tempo como criterio pedagógico y el código deontológico como marco profesional. Valorar qué ganamos y también qué puede perderse con la IA en el aula, y los riesgos, como es el caso de la descarga cognitiva mencionada aquí. Esto significa, paradójicamente, no utilizar la IA de forma anecdótica o gratuita, como moda, dado su conocido impacto ambiental y didáctico: es necesario integrarla en las disciplinas de forma pragmática, meditada, útil y crítica para una práctica profesional actualizada, pensando en el presente y sobre todo en el futuro de nuestro estudiantado. Lo que quiere decir también que se debe educar en sus consecuencias ambientales, sociales, tecnoéticas y cognitivas. E implica crear las condiciones para que el alumno aprenda en serio, con esfuerzo productivo, con la máquina como refuerzo y agente de mejora y acompañamiento, no únicamente como herramienta de descarga cognitiva o atajo para realizar tareas y aprobar.

El pensamiento crítico en la docencia pasa por dudar sobre la incorporación de tecnologías sin pensar bien su impacto en el aprendizaje: aplicamos a la IA el principio de prudencia de la Declaración de Barcelona (Steels & López de Mantaras, 2018). Porque en la enseñanza, en general, es mejor tener evidencias de lo que aplicamos en clase, y en este sentido, como suele decirse, en educación es mejor estar en la penúltima que en la última.


Referencias:

Fan, Y., Tang, L., Le, H., et al. (2025). Beware of metacognitive laziness: Effects of generative artificial intelligence on learning motivation, processes, and performance. British Journal of Educational Technology, 56(2), 489–530. https://doi.org/10.1111/bjet.13544

Gerlich, M. (2025). AI tools in society: Impacts on cognitive offloading and the future of critical thinking. Societies, 15(1), 1–28. https://doi.org/10.3390/soc15010006

Hernández-Fernández, A. (2026, 28 de gener). When to use technology in the classroom. Educational Evidencehttps://educationalevidence.com/en/when-to-use-technology-in-the-classroom/

Hernández-Fernández, A. (2025). Tecnologia, tecnoètica i codi deontològic docent. Revista de tecnologia», 13, p. 56-59. http://hdl.handle.net/2117/442517

Lodge, J. M., & Loble, L. (2026). Artificial intelligence, cognitive offloading and implications for education. Network for Quality Digital Education / University of Technology Sydney. https://www.uts.edu.au/news/2026/03/experts-warn-unstructured-ai-use-in-schools-risks-cognitive-atrophy

Risko, E. F., & Gilbert, S. J. (2016). Cognitive offloading. Trends in Cognitive Sciences, 20(9), 676–688. https://doi.org/10.1016/j.tics.2016.07.002

Steels, L., & López de Mantaras, R. (2018). The Barcelona declaration for the proper development and usage of artificial intelligence in Europe. AI communications, 31(6), 485-494. http://doi.org/10.3233/aic-180607


Fuente: educational EVIDENCE

Derechos: Creative Commons

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *