- Portada
- 9 de marzo de 2026
- Sin Comentarios
- 31 minutos de lectura
Mary Burns: “Prosperar, preparar, proteger. Necesitamos una nueva brújula para la educación tecnológica en la era de la IA”

Mary Burns / Foto cortesía del autor

Es un privilegio dar la bienvenida a Mary Burns, una autoridad mundial en desarrollo profesional docente y tecnología educativa. En 2021, Mary fue autora del marco conceptual que sirvió de base al Informe GEM 2023 de la UNESCO, ofreciendo un análisis riguroso de la tecnología como herramienta para el aprendizaje y la provisión educativa.
Hoy, cinco años después de aquel documento fundamental y convertida en una voz clave en el debate global, Mary sigue orientando la conversación a través de informes del Brookings Institution como A New Direction for Students in an AI World. Hoy conversamos sobre cómo ha cambiado el panorama y qué significa eso para el futuro del aula.
Mirando atrás a 2021: cinco años de transformación
Su documento de 2021 para la UNESCO se redactó cuando el mundo salía de la pandemia y se centraba en hardware, software y alfabetización digital básica. Cinco años después, con el ascenso meteórico de la IA generativa, ¿cómo han cambiado las prioridades? Si reescribiera hoy aquel informe, ¿cuál sería la incorporación o modificación más importante?
Si lo escribiera hoy, la incorporación más significativa sería el fracaso del aprendizaje a distancia para ofrecer experiencias educativas de calidad comparable —o siquiera aceptable— a muchos (¿la mayoría?) de los estudiantes en todo el mundo. Se trata de un fracaso sistémico, no meramente tecnológico. De hecho, lo abordo en una publicación de 2023 titulada Distance Education for Teacher Training: Modes, Models and Methods. Seguimos pagando el precio en términos de pérdida de aprendizaje, tanto entre quienes no tuvieron acceso a ningún tipo de educación como entre quienes —habitualmente los más desfavorecidos— accedieron a tecnología limitada o a una enseñanza en línea claramente inferior a la presencial. Pero el mayor cambio, por supuesto, es la IA generativa. En 2021 ya había alguna referencia a ella, pero, por lo que leía y escuchaba entonces, parecía algo lejano. Noviembre de 2022 y el lanzamiento comercial de ChatGPT marcaron un antes y un después en la tecnología educativa.
Y desde 2022 han pasado muchas cosas…
En 2026, el foco es la IA en todas partes y a todas horas; como me gusta decir, la IA es “todo, en todas partes, al mismo tiempo”. Es diferente a cualquier tecnología anterior en educación. Sin embargo, los problemas son parecidos a los que señalé en 2021 respecto a la tecnología en general: calidad, equidad, evidencia de impacto, exageraciones, la brecha entre la retórica de las empresas tecnológicas y la falta de efectos medibles, la mentalidad gregaria en su adopción y los vacíos en implementación e investigación.
Una diferencia es que quizá hemos alcanzado el “pico” de la tecnología educativa, como creo que ocurrió con las redes sociales. Hay más escepticismo en la comunidad educativa e incluso reacciones de rechazo. También existe una enorme desconfianza hacia la IA, incluso entre docentes que son usuarios avanzados de estas herramientas. Creo que el alumnado debe tener acceso a la tecnología en la escuela. Pero también creo que esta reacción crítica es saludable: necesitamos discernimiento reflexivo sobre las tecnologías que poseemos y utilizamos con niños y jóvenes. Espero que esta revisión crítica alcance tanto a los usos irreflexivos de la IA en educación como a los gobiernos, que parecen reacios a establecer regulaciones o salvaguardas claras.
El paradigma “Prosperar, Preparar, Proteger”
En su trabajo reciente con Brookings introduce los pilares de Prosperar, Preparar y Proteger. ¿Puede explicarlos brevemente?
Estos pilares sintetizan un uso responsable y productivo de la IA. Surgieron de entrevistas e investigaciones. Las personas entrevistadas hablaban con esperanza del potencial de la IA para ayudar al alumnado a desarrollarse, pero también de la necesidad de preparar a estudiantes y docentes para usarla de manera ética y responsable, y de protegerlos frente a sus riesgos.
En conjunto, los tres pilares reconocen que integrar la IA de forma responsable exige maximizar beneficios, desarrollar capacidades y minimizar daños de manera simultánea. Es un enfoque equilibrado que supera tanto el tecnooptimismo del que han sido acusadas las empresas tecnológicas y algunos defensores de la tecnología educativa como el tecnopesimismo (como el que se desprende del último informe Global Education Monitoring Report) y que se orienta hacia un tecnorrealismo que, confío, es el tono y el espíritu del informe de Brookings.
- Prosperar: cómo el alumnado puede aprovechar la IA para mejorar su aprendizaje, creatividad y crecimiento académico. En esencia, las oportunidades para el pleno desarrollo.
- Preparar: las competencias y capacidades críticas necesarias para desenvolverse ética y eficazmente en un mundo saturado de IA.
- Proteger: las salvaguardas necesarias para mitigar riesgos como la dependencia excesiva, la pérdida de habilidades, la vulneración de la privacidad o la desinformación.
¿Por qué considera que proteger los aprendizajes fundamentales es hoy más urgente que en 2021?
El pilar de «proteger» es crucial en la era de la IA. La tecnología, como escribí en 2021, lleva tiempo generando daños concretos a sus usuarios —especialmente a los jóvenes— en forma de suplantación de identidad, vigilancia, doxxing, riesgos para la seguridad en línea o exposición a contenidos inapropiados. La IA no ha originado estos problemas, pero sin duda los está amplificando. Además, las amenazas que la IA plantea a niños y adolescentes operan en un plano mucho más profundo y existencial que los daños tecnológicos previos, porque afectan a los propios procesos mediante los cuales los menores crecen y se desarrollan como seres pensantes, emocionales, sociales y capaces de confiar. Más que ninguna otra tecnología, la IA hace especialmente seductora la posibilidad de delegar —o incluso renunciar— a experiencias formativas por pura comodidad. Y en ese terreno los daños son más generalizados que con otras tecnologías.
¿Por qué son más generalizados que con otras tecnologías?
Cuando niños y adolescentes delegan su pensamiento en herramientas y plataformas de IA, eluden el esfuerzo cognitivo que construye conocimiento, pensamiento crítico y capacidad intelectual. Cuando delegan sus emociones en avatares y algoritmos, evitan el trabajo emocional imprescindible para gestionar su mundo interior. Cuando sustituyen interacciones sociales por interacciones con IA, cambian relaciones humanas complejas —imperfectas pero cualitativamente superiores— por intercambios más fáciles, sin fricción y cualitativamente más pobres con algoritmos. Y cuando desplazan la confianza desde las personas hacia la IA, cortocircuitan la confianza relacional tan necesaria para creer en los demás, en los hechos, en la competencia ajena y, en última instancia, en su propio juicio. Esto amenaza tanto la eficacia como la autoeficacia, que son pilares fundamentales de la enseñanza y el aprendizaje. También erosiona la confianza epistemológica en el conocimiento, en los expertos, en las instituciones y en el propio sistema educativo, y me preocupa que nos acerque al cinismo y al nihilismo.
Uf, no es un panorama sencillo…
Estos daños afectan a los fundamentos mismos del desarrollo humano y social. Por eso creo que gobiernos y empresas tecnológicas tienen la responsabilidad de proteger al alumnado frente a ellos, de modo que el uso de la IA en educación sea deliberado, productivo, ético y responsable.
La IA como tutor: la trampa de confundir productividad con aprendizaje
Recientemente ha analizado cómo la tutoría reforzada con IA puede igualar los resultados de la tutoría humana. Sin embargo, también advierte sobre el «aprendizaje disminuido por la IA». ¿Cómo podemos garantizar que la IA siga siendo un «compañero de pensamiento» para el alumnado y no simplemente una «herramienta de productividad» que elude el proceso —difícil pero necesario— de aprender y enfrentarse a un concepto?
Se trata de un desafío técnico, regulatorio, pedagógico y humano. En primer lugar, las empresas tecnológicas pueden modificar el diseño de sus plataformas dirigidas al alumnado. Pueden desantropomorfizarlas para reducir la implicación constante (salvo quizá en plataformas de tutoría), hacerlas menos complacientes para que cuestionen las creencias de los estudiantes. Pueden diseñarse, como sostenemos en el informe de Brookings, para potenciar la curiosidad, profundizar la comprensión, revelar la información de manera progresiva y fomentar un uso responsable; en esencia, para enseñar y no simplemente decir.
Una IA que enseña —y no solo informa— comprende herramientas y plataformas diseñadas específicamente para niños que enriquecen el aprendizaje. Utilizan contenidos verificados, rigurosos y curados, no información indiscriminada de la web abierta. Estas plataformas no vuelcan datos sin más, como ocurre con las IA de propósito general; estructuran el aprendizaje de forma guiada, plantean preguntas, ofrecen la información de manera gradual, de modo que guían al estudiante y este —no la IA— mantiene el control. Limitan las interacciones e incorporan salvaguardas para evitar la deriva conversacional. El mejor ejemplo probablemente sea Khanmigo. Existen otros, como la versión educativa del modelo de lenguaje de ChatGPT.
Entonces, ¿puede la IA convertirse en un «compañero de pensamiento» en estas plataformas?
Si la IA va a desempeñar ese papel, debe incorporar principios de aprendizaje avalados por la investigación y coherentes con la arquitectura cognitiva del cerebro: activación de conocimientos previos, gestión de la memoria de trabajo, práctica de recuperación, intercalado (mezclar distintos temas o tipos de problemas relacionados en una misma sesión), interrogación elaborativa, ciclos de retroalimentación significativos y ejemplos resueltos paso a paso en matemáticas, no solo la respuesta final, sino el proceso completo de resolución. Estos elementos no pueden ser opcionales; deben constituir rasgos estructurales fundamentales de la interacción entre IA, plataforma y estudiante. Y una de las mejores maneras de lograrlo es implicar de forma sustantiva a docentes y estudiantes en el diseño de estas aplicaciones.
Ahora bien, diseñar plataformas de este modo es difícil e incluso contraintuitivo para la propia IA, porque debe resistirse a sus impulsos de eficiencia. Por eso muchas plataformas supuestamente «educativas» se centran en la participación y el tiempo en tarea, y luego confunden esas métricas con aprendizaje real. Esto no cambiará a menos que la regulación gubernamental y los sistemas educativos obliguen a las empresas a hacer que estos productos sean verdaderamente educativos. Esto implica regulación —algo que en Estados Unidos no existe. De hecho, el Departamento de Justicia creó el mes pasado un grupo específico de litigación sobre IA para demandar a los estados cuyas leyes en esta materia la administración considera excesivamente restrictivas. Se trata de una clara usurpación federal de competencias estatales.
En ausencia de regulación, los distritos escolares, estados, provincias o países pueden establecer sus propios estándares de IA educativa y exigir que las empresas se ajusten a ellos; incluso pueden coordinarse y utilizar su poder de compra para condicionar la adquisición de estas herramientas al cumplimiento de dichos estándares. También pueden establecer límites de edad para el uso de la IA, como ya ocurre con las redes sociales, cuya aplicación y control deben asumir las propias empresas tecnológicas.
¿Y qué papel desempeñan los docentes y la pedagogía?
El profesorado debe fomentar una forma de pensamiento sistémico sobre la IA. Ha de ayudar al alumnado a utilizar estas herramientas para la práctica guiada, asegurando al mismo tiempo que resuelvan problemas similares de forma independiente para consolidar competencias. Debe ayudarles a comprender dónde la IA puede potenciar el aprendizaje y cuáles son los riesgos de automatizarlo. Y debe enseñarles a interrogar —no aceptar sin más— los contenidos generados. Esto implica cultivar una síntesis crítica en lugar de un consumo pasivo, garantizando que el alumnado interactúe con la IA mediante una práctica reflexiva que preserve la comprensión profunda esencial para el aprendizaje interdisciplinar.
Es un desafío pedagógico…
El profesorado debe modelar un uso productivo de la IA mientras enseña a discernir calidad, pertinencia y sesgo, ofreciendo estas capacidades críticas como contrapeso necesario frente a la eficiencia seductora de herramientas que proporcionan información lista para usar, a menudo engañosa, incompleta o errónea. El desafío pedagógico no consiste en rechazar la utilidad de la IA, sino en desarrollar en el alumnado la disciplina intelectual necesaria para utilizarla sin renunciar al trabajo cognitivo que constituye el auténtico aprendizaje. Todo ello variará según sistemas educativos, materias y edades.
Las personas en general, no solo los estudiantes, mantienen una relación personal con la tecnología…
Por supuesto. Necesitamos examinar nuestra propia relación con la tecnología. Nuestra actitud hacia herramientas como la IA está llena de contradicciones, muchas de ellas difíciles de resolver. Amamos la tecnología porque nos facilita las tareas y a menudo nos distrae de pensamientos y actividades cognitivamente y emocionalmente exigentes. Sin embargo, la IA representa una fuerza de transformación inmensa que puede alterar el mundo de maneras que nadie prevé —o desea—.
¿Cómo gestionar esa tensión?
Cito algo que escribí y en lo que creo firmemente: debemos encontrar una forma mejor de gestionar nuestra relación con la tecnología que equilibre nuestras prioridades como seres humanos. Debemos mantener los «ojos bien abiertos» y actuar con agencia y equilibrio al utilizar herramientas potencialmente transformadoras como la IA generativa.
Podemos abrazarla con entusiasmo y, al mismo tiempo, defender el discernimiento en su aplicación. Podemos valorar sus beneficios sin ceder el control sobre nuestras decisiones. Podemos usarla como herramienta de apoyo sin volvernos dependientes de ella. Podemos ser usuarios informados y entusiastas sin dejar de priorizar la dimensión humana de la educación. Pero para ello debemos permanecer vigilantes, conscientes no solo de lo que podemos ganar, sino también de lo que podemos perder.
La autonomía docente en una era automatizada
Si en 2021 el reto era ayudar a todos los docentes a usar la tecnología, en 2026 parece ser evitar que la tecnología sustituya su autonomía profesional. ¿Cómo pueden mantener su autoridad cuando los algoritmos generan programaciones y corrigen ensayos en segundos?
La disminución de la autonomía docente en la era de la IA es una preocupación real, aunque la base empírica aún sea limitada. En 2024 publiqué un capítulo titulado “Eyes Wide Open: What We Lose from Generative AI”, donde argumentaba que los adultos —profesorado universitario, docentes y yo misma— corremos el riesgo de externalizar nuestro trabajo cognitivo y nuestra autonomía profesional a modelos de lenguaje a cambio de ahorrar tiempo.
No es un problema exclusivo del alumnado: como seres humanos, estamos predispuestos a buscar atajos, a optar por el camino de menor resistencia y a delegar el esfuerzo cognitivo. Esta vulnerabilidad se vio confirmada en mis conversaciones con docentes para el informe de Brookings. Muchos de ellos reconocieron abiertamente que les cuesta no depender en exceso de la IA, un patrón que también han documentado informes recientes sobre el uso de la IA en educación.
Pero el profesorado sufre presiones sociales y falta de tiempo…
La presión temporal es un predictor significativo de la delegación cognitiva en el alumnado, y probablemente también en el profesorado. Pese al tópico contrario, estudios en EE. UU. y Reino Unido muestran que los docentes trabajan más horas que otros profesionales. Además, la mayoría son mujeres, muchas con responsabilidades familiares adicionales. Esa convergencia de presión profesional y personal hace que delegar no solo sea tentador, sino racional.
Y la IA ofrece un atajo fácil…
Las consecuencias de externalizar el trabajo cognitivo de la enseñanza a la IA generativa son, sin embargo, significativas. La planificación didáctica, la práctica reflexiva y la preparación personalizada no son elementos accesorios de la docencia: constituyen su identidad y su pericia profesional. Cuando el profesorado renuncia a este trabajo intelectual, se expone a lo que solo puede describirse como una forma de alienación en sentido marxiano: una fragmentación de la relación entre el trabajador, su trabajo, los destinatarios de ese trabajo y él mismo. En concreto, delegar la planificación en una plataforma de IA puede distanciar al docente del producto de esa planificación; de la implicación personal y del pensamiento iterativo que el propio proceso de planificar exige; de la dimensión colegiada del trabajo compartido con compañeros de nivel o departamento; de aquellos colegas que siguen diseñando lo que podríamos llamar programaciones “artesanales” sin asistencia de la IA; de las necesidades individuales de su alumnado; y, en última instancia, de su propio potencial profesional. A medida que se profundiza la dependencia de las herramientas de IA, el profesorado va cediendo progresivamente el control de instrumentos que estaban pensados para servirle, desconectándose cada vez más de los elementos que constituyen una agencia profesional significativa.
¿Debemos dejar de usar la IA en la enseñanza?
Quiero ser clara: no estoy defendiendo que se abandone la IA en la docencia. Utilizada como auténtica co-creadora —es decir, como una herramienta que amplía el pensamiento del docente en lugar de sustituirlo— tiene un potencial real. Un uso ponderado, en el que los resultados se examinan críticamente, se revisan y se corrigen, puede ser útil y sugerente; casi como contar con un asistente docente digital. La preocupación surge cuando se produce una sustitución generalizada: la transferencia silenciosa y gradual de responsabilidades profesionales nucleares a sistemas de IA sin que medie reflexión ni cuestionamiento.
¿Cuál es el papel de las instituciones educativas?
Las instituciones educativas desempeñan un papel decisivo en la preservación de la autonomía profesional docente. Deben afirmar de manera clara y constante que las herramientas de IA están concebidas para amplificar y apoyar la labor del profesorado, no para automatizarla. Han de invertir en una formación continua y sostenida tanto en alfabetización en IA como en diseño didáctico, y proteger el tiempo del profesorado mediante políticas intencionadas de organización horaria y carga de trabajo. La IA en educación no debe ser algo que se haga a los docentes, sino con ellos. Han de tener una voz sustantiva en el diseño de las plataformas educativas de IA y en todas las decisiones de adquisición y gobernanza relativas a su uso en los centros —no como gesto simbólico o mero trámite, como sucede con demasiada frecuencia. Y, de forma más fundamental, como sociedad debemos renovar nuestro compromiso con la profesionalización y la validación de la docencia como una tarea intelectual valiosa, cuya identidad se asienta en el juicio profesional, el conocimiento relacional y el cuidado ético.
Responsabilidad ética, algo crucial.
Aquí el profesorado tiene también una responsabilidad: reflexionar con honestidad sobre el grado en que está utilizando la IA y ser transparente al respecto con colegas y estudiantes. Este tipo de reflexión resulta más sólida y sostenible cuando se produce en el seno de una comunidad de práctica, donde los docentes pueden apoyarse mutuamente para gestionar las tensiones reales entre eficiencia e integridad profesional y, al hacerlo, preservar tanto su autonomía profesional como personal.
Más allá del «ruido»: identificar el valor real de la tecnología
A menudo ha hablado del «ruido» en la tecnología educativa. Hoy el ruido en torno a la IA es ensordecedor. Según su investigación, ¿cuál sería una «señal» —una aplicación concreta de la IA generativa— que ofrezca un avance real, respaldado por evidencia, para estudiantes en contextos con recursos limitados?
En lo que respecta a la IA generativa en educación en términos generales, seguimos confundiendo el ruido con la señal y tomando el perjuicio por ayuda. Pero quizá la señal más sólida hasta la fecha procede de la tutoría con IA. Los Sistemas Inteligentes de Tutoría (ITS) tradicionales preceden con mucho a la IA generativa y se han basado en IA simbólica, analítica predictiva y, posteriormente, aprendizaje automático. Estos sistemas cuentan con una base de evidencia amplia y metodológicamente rigurosa que demuestra efectos positivos en el aprendizaje del alumnado —incluidos estudiantes con dificultades y en contextos de bajos recursos como India, la China rural, El Salvador o el África subsahariana— al ampliar el acceso equitativo a apoyos educativos que antes solo estaban al alcance de quienes disponían de más medios.
Entonces, ¿estos sistemas de apoyo basados en IA pueden ser eficaces en esos contextos?
He escrito sobre ello tanto en el documento de reflexión del Informe GEM como en mi publicación de 2023 Distance Education for Teacher Training: Modes, Models and Methods. La eficacia de estos sistemas de tutoría deriva de su diseño —es decir, de la incorporación de principios pedagógicos sólidos de tutoría— y no de la tecnología en sí misma. El problema es que buena parte de la investigación y del discurso actual sobre la «IA para tutoría» confunde la IA generativa con esos sistemas anteriores, atribuyendo erróneamente a la primera una base empírica consolidada que no le corresponde específicamente. No se trata de las mismas tecnologías, y la distinción es crucial para interpretar adecuadamente las afirmaciones sobre lo que funciona.
¿Existe entonces evidencia científica que respalde esta idea?
Dicho esto, está surgiendo un creciente corpus de investigación de alta calidad —procedente de instituciones como el Banco Mundial, Stanford, Harvard o Google— que sugiere que cuando programas de tutoría consolidados integran IA generativa, o cuando los sistemas de tutoría se construyen sobre grandes modelos de lenguaje, pueden generar beneficios de aprendizaje significativos, en algunos casos también para alumnado más desfavorecido. Por ahora, la mayoría de los efectos observados son a corto plazo, específicos de tareas concretas y dependientes del contexto, más que longitudinales o sistémicos. Por tanto, debemos ser prudentes en la atribución causal y en la generalización de resultados.
Es, sin duda, una cuestión compleja.
No obstante, ya sea como parte de un ITS o como plataforma independiente, la IA generativa puede aportar posibilidades que suponen un cambio relevante respecto a lo que ofrecían los sistemas anteriores basados en reglas. Y es aquí donde la confusión que mencionaba antes puede adquirir un sentido productivo en lugar de meramente cautelar. La capacidad de la IA generativa para producir lenguaje natural —e incluso algunas de las características que he criticado en otros contextos, como su tendencia a la interacción antropomórfica— puede resultar pedagógicamente valiosa si se diseña de forma deliberada.
¿Algún ejemplo concreto?
Pondré uno propio. Para preparar un trabajo con un grupo de docentes en Italia, diseñé un chatbot histórico que no responde directamente a las respuestas del alumnado, sino que utiliza figuras italianas célebres para animar a los estudiantes a compartir lo que saben y, a continuación, formula preguntas aclaratorias. El tono es cercano y conversacional, pero profesional. Este diseño conversacional y parcialmente antropomórfico puede ofrecer cierto grado de diálogo socrático y proporcionar retroalimentación personalizada que resulte receptiva a las necesidades del aprendiz. Como mi chatbot, los grandes modelos de lenguaje pueden generar diálogos naturales, como explicaciones adaptadas a preguntas individuales del alumnado, en lugar de limitarse a seleccionar respuestas preprogramadas típicas de los sistemas de tutoría basados en reglas. Los estudiantes pueden formular preguntas de seguimiento en lenguaje natural y recibir respuestas contextualizadas, mientras que los sistemas de IA pueden ofrecer retroalimentación sofisticada ante respuestas abiertas, especialmente en ámbitos como la escritura o la resolución de problemas matemáticos. Esto aborda una de las limitaciones históricas de los sistemas basados en reglas, que tienen dificultades cuando las preguntas del alumnado se apartan de los itinerarios previstos. Por último, los sistemas de tutoría con IA generativa pueden crear un espacio psicológicamente seguro para el aprendizaje. Las plataformas no pierden la paciencia ni juzgan, y los estudiantes pueden plantear dudas sin vergüenza ni temor. La naturaleza individualizada de la tutoría aporta un grado de privacidad frente a los compañeros, y su carácter asincrónico permite al alumnado trabajar cuando se siente más dispuesto para aprender. Investigaciones realizadas en contextos instruccionales específicos —especialmente estudios centrados en la retroalimentación en escritura— han constatado que los estudiantes que reciben comentarios generados por IA, en particular aprendices de segunda lengua (L2), pueden obtener resultados comparables a los de quienes reciben retroalimentación tradicional del profesorado. Estos hallazgos apuntan a una equivalencia aproximada —no a una superioridad— en condiciones controladas, y no deben sobregeneralizarse. La implicación más relevante no es que una forma de retroalimentación deba sustituir a la otra, sino que, en el ámbito de la tutoría, el alumnado puede beneficiarse de estrategias híbridas que integren apoyos pedagógicos diseñados por docentes con aprendizaje adaptativo y retroalimentación generados por IA.
La paradoja de la equidad en 2026
Tras la pandemia de coronavirus hablábamos de la «brecha digital» en términos de acceso a internet. Hoy nos enfrentamos a una «brecha de la IA».
La tecnología siempre ha prometido inclusión para el alumnado más pobre del mundo, pero por lo general ha acabado generando exclusión. Lamentablemente, la investigación sobre despliegues masivos de tecnología educativa en contextos como el África subsahariana demuestra que la tecnología, por sí sola, rara vez cierra las brechas de aprendizaje —y con frecuencia las amplía—, por lo que no soy optimista respecto a que la brecha de la IA vaya a reducirse en un futuro próximo. Mi pesimismo parte de una realidad evidente: la inclusión digital y educativa no puede producirse sin los apoyos más básicos —acceso a un dispositivo, conexión a internet, software y un docente cualificado y comprometido—. Y todo ello debe integrarse en un sistema educativo sensible a las necesidades de las comunidades que con mayor frecuencia quedan excluidas del acceso a la tecnología. Estos no son requisitos técnicos; son requisitos políticos.
¿Cómo evitamos un futuro en el que el alumnado de los países ricos reciba una educación dirigida por docentes humanos y respaldada por IA (como usted señaló en la Conferencia IFE de 2026, donde afirmaba que las IAs generativas de pago son las que aumentan la fiabilidad), mientras que los estudiantes del Sur Global reciban una escolarización «solo automatizada» o dependan de IAs generativas poco fiables?
Diseñar pensando en la equidad y la calidad es, ante todo, una decisión política. Implica priorizar de manera pública y efectiva la equidad y la calidad dentro del sistema educativo; dirigir deliberadamente recursos e inversiones hacia las comunidades marginadas; desarrollar iniciativas adaptadas a las necesidades locales en lugar de imponer soluciones uniformes; establecer estándares, ayudar al profesorado a alcanzarlos y exigir responsabilidad a los sistemas educativos; y consultar y colaborar con las comunidades en vez de imponer dictados externos. Todo esto se ve agravado por los elevados costes de los procesadores y de los modelos de IA fiables y precisos. No responsabilizo por completo a las empresas tecnológicas —sus costes de desarrollo son tan altos que concentran sus productos en países y sistemas que pueden pagarlos—, pero las consecuencias recaen con mayor dureza sobre quienes ya estaban en situación de desventaja.
¿Es responsabilidad de los gobiernos?
Cerrar la brecha de la IA exige que los países asuman que la equidad debe extenderse a todos los seres humanos. La inclusión no puede supeditarse a una capacidad que nunca se ha construido; en lugar de aplicar criterios de “preparación” que excluyen de facto a las comunidades marginadas de la transformación impulsada por la IA, un enfoque basado en la equidad implicaría apoyar a sistemas educativos, centros y comunidades con recursos insuficientes mediante políticas específicas y una reasignación estratégica de recursos. Existen iniciativas que intentan avanzar en esta dirección, como la Declaración de Hamburgo sobre IA responsable para los Objetivos de Desarrollo Sostenible del Programa de las Naciones Unidas para el Desarrollo.
Pero usted es pesimista…
Muchos países carecen no solo de voluntad, sino también de conocimientos técnicos y de recursos para llevar a cabo estas transformaciones, y de ahí mi pesimismo. Algunos gobiernos y sistemas educativos con pocos recursos podrán diversificar la financiación de la IA y de la educación mediante enfoques innovadores que creen infraestructuras sostenibles y, al mismo tiempo, fortalezcan la capacidad y la apropiación local —por ejemplo, mecanismos de Financiación Innovadora para la Educación (IFE) que no se limiten a esperar a que aumenten los presupuestos nacionales, sino que construyan activamente nuevas vías de financiación que sitúen la equidad y la implicación comunitaria en el centro—. Pero muchos otros no podrán hacerlo. Y es posible que las regiones más pobres del planeta solo logren avanzar si consiguen atraer el interés de donantes internacionales que hagan viables estas soluciones.
¿Y qué ocurre con los docentes IA en estos contextos?
En relación con los llamados “docentes IA”, conviene recordar que la tecnología tiene una larga trayectoria proporcionando acceso al aprendizaje en comunidades donde no existe enseñanza presencial de calidad. La instrucción interactiva por audio, la tutoría radiofónica en directo o programas televisivos como la Telesecundaria en México han ampliado las oportunidades educativas en comunidades sin docentes; han llevado el currículo nacional a zonas remotas; y han apoyado a docentes voluntarios de la comunidad con poca o ninguna formación. Un docente humano cualificado y competente es siempre preferible a una solución tecnológica, pero un docente basado en IA es mejor que la ausencia total de enseñanza. En las comunidades y escuelas más pobres del mundo que carecen de apoyo financiero externo —y más aún en un contexto de grave escasez mundial de profesorado—, la verdadera tragedia es que el alumnado puede no tener acceso a nada.
Finalmente, Mary, fue un placer escucharla en Monterrey y ahora haber podido profundizar un poco más en estas cuestiones. Gracias en nombre de los lectores de Educational Evidence.
¡Gracias! Ha sido un verdadero honor.
___
Mary Burns nos recuerda que, aunque la tecnología haya cambiado más en los últimos cinco años que en las dos décadas anteriores, el núcleo de la educación sigue siendo una tarea profundamente humana. Su llamamiento a «proteger» el desarrollo cognitivo del alumnado en un mundo automatizado es, quizá, la lección más importante para el profesorado.
Referencias:
Burns, M. (2021). Documento de referencia preparado para el Informe de seguimiento de la educación en el mundo de 2023, Tecnología y educación: La tecnología en la educación. UNESCO: https://unesdoc.unesco.org/ark:/48223/pf0000378951_spa
Burns, M. (2023). Distance Education for Teacher Training: Modes, Models, and Methods. Washington: EDC. http://go.edc.org/07xd
Burns, M. (2024). Eyes Wide Open: What We Lose from Generative Artificial Intelligence in Education. In:
Burns, M. (2026). What the research shows about generative AI in tutoring. https://www.brookings.edu/articles/what-the-research-shows-about-generative-ai-in-tutoring/
Burns, M. Et al. (2026). A new direction for students in an AI world: Prosper, prepare, protect. https://www.brookings.edu/articles/a-new-direction-for-students-in-an-ai-world-prosper-prepare-protect/
Fuente: educational EVIDENCE
Derechos: Creative Commons