• Portada CA
  • 9 de març de 2026
  • Sense comentaris
  • 32 temps de lectura

Mary Burns: “Prosperar, preparar, protegir. Necessitem una nova brúixola per a l’educació tecnològica a l’era de la IA”

Mary Burns: “Prosperar, preparar, protegir. Necessitem una nova brúixola per a l’educació tecnològica a l’era de la IA”

Mary Burns / Foto cortesia de l’autor

 

Llicència Creative Commons

 

Antoni Hernández-Fernández

 

És un privilegi donar la benvinguda a Mary Burns, una autoritat mundial en desenvolupament professional docent i tecnologia educativa. El 2021, Mary va ser autora del marc conceptual que va servir de base a l’Informe GEM 2023 de la UNESCO, oferint una anàlisi rigorosa de la tecnologia com a eina per a l’aprenentatge i la provisió educativa.

Avui, cinc anys després d’aquell document fonamental i convertida en una veu clau en el debat global, Mary segueix orientant la conversa a través d’informes del    com a New Direction for Students in an AI World. Avui conversem sobre com ha canviat el panorama i què vol dir això per al futur de l’aula.

 

Mirant enrere al 2021: cinc anys de transformació

El seu document del 2021 per a la UNESCO es va redactar quan el món sortia de la pandèmia i se centrava en maquinari, programari i alfabetització digital bàsica. Cinc anys després, amb l’ascens meteòric de la IA generativa, com han canviat les prioritats? Si reescrivís avui aquell informe, quina seria la incorporació o modificació més important?

Si ho escrivís avui, la incorporació més significativa seria el fracàs de l’aprenentatge a distància per oferir experiències educatives de qualitat comparable –o tan sols acceptable– a molts (la majoria?) dels estudiants a tot el món. És un fracàs sistèmic, no merament tecnològic. De fet, ho abordo en una publicació de 2023 titulada Distance Education for Teacher Training: Modes, Models and Methods. Seguim pagant el preu en termes de pèrdua d’aprenentatge, tant entre els que no van tenir accés a cap tipus d’educació com entre els qui —habitualment els més desafavorits— van accedir a tecnologia limitada o a un ensenyament en línia clarament inferior al presencial. Però el canvi més gran, per descomptat, és la IA generativa. El 2021 ja hi havia alguna referència a ella, però, pel que llegia i escoltava llavors, semblava una mica llunyà. Novembre del 2022 i el llançament comercial de ChatGPT van marcar un abans i un després en la tecnologia educativa.

I des del 2022 han passat moltes coses…

El 2026, el focus és la IA a tot arreu i a tota hora; com m’agrada dir, la IA és “tot, a tot arreu, alhora”. És diferent de qualsevol tecnologia anterior en educació. Tot i això, els problemes són semblants als que vaig assenyalar el 2021 respecte a la tecnologia en general: qualitat, equitat, evidència d’impacte, exageracions, la bretxa entre la retòrica de les empreses tecnològiques i la manca d’efectes mesurables, la mentalitat gregària en la seva adopció i els buits en implementació i investigació.

Una diferència és que potser hem aconseguit el “pic” de la tecnologia educativa, com crec que va passar amb les xarxes socials. Hi ha més escepticisme a la comunitat educativa i fins i tot reaccions de rebuig. També hi ha una enorme desconfiança envers la IA, fins i tot entre docents que són usuaris avançats d’aquestes eines. Crec que els alumnes han de tenir accés a la tecnologia a l’escola. Però també crec que aquesta reacció crítica és saludable: necessitem discerniment reflexiu sobre les tecnologies que posseïm i fem servir amb nens i joves. Espero que aquesta revisió crítica arribi tant als usos irreflexius de la IA en educació com als governs, que semblen reticents a establir regulacions o salvaguardes clares.

 

El paradigma “Prosperar, Preparar, Protegir”

En el seu treball recent amb Brookings introdueix els pilars de Prosperar, Preparar i Protegir. Els pot explicar breument?

Aquests pilars sintetitzen un ús responsable i productiu de la IA. Van sorgir d’entrevistes i investigacions. Les persones entrevistades parlaven amb esperança del potencial de la IA per ajudar l’alumnat a desenvolupar-se, però també de la necessitat de preparar estudiants i docents per a fer-la servir de manera ètica i responsable, i de protegir-los davant dels seus riscos.

En conjunt, els tres pilars reconeixen que integrar la IA de manera responsable exigeix ​​maximitzar beneficis, desenvolupar capacitats i minimitzar danys de manera simultània. És un enfocament equilibrat que supera tant el tecno-optimisme del qual han estat acusades les empreses tecnològiques i alguns defensors de la tecnologia educativa, com el tecno-pessimisme (com el que es desprèn del darrer informe Global Education Monitoring Report) i que s’orienta cap a un tecno-realisme que, confio, és el to i l’esperit de l’informe.

  • Prosperar: com l’alumnat pot aprofitar la IA per millorar-ne l’aprenentatge, la creativitat i el creixement acadèmic. En essència, les oportunitats per al ple desenvolupament.
  • Preparar: les competències i capacitats crítiques necessàries per desenvolupar-se èticament i eficaç en un món saturat d’IA.
  • Protegir: les salvaguardes necessàries per mitigar riscos com ara la dependència excessiva, la pèrdua d’habilitats, la vulneració de la privadesa o la desinformació.

Per què considera que protegir els aprenentatges fonamentals és avui més urgent que el 2021?

El pilar de «protegir» és crucial a l’era de la IA. La tecnologia, com vaig escriure el 2021, fa temps que genera danys concrets als seus usuaris —especialment als joves— en forma de suplantació d’identitat, vigilància, doxxing, riscos per a la seguretat en línia o exposició a continguts inadequats. La IA no ha originat aquests problemes, però sens dubte els amplifica. A més, les amenaces que la IA planteja a nens i adolescents operen en un pla molt més profund i existencial que els danys tecnològics previs, perquè afecten els mateixos processos mitjançant els quals els menors creixen i es desenvolupen com a éssers pensants, emocionals, socials i capaços de confiar. Més que cap altra tecnologia, la IA fa especialment seductora la possibilitat de delegar –o fins i tot renunciar– a experiències formatives per pura comoditat. I en aquest terreny, els danys són més generalitzats que amb altres tecnologies.

Per què són més generalitzats que amb altres tecnologies?

Quan els nens i els adolescents deleguen el seu pensament en eines i plataformes d’IA, eludeixen l’esforç cognitiu que construeix coneixement, pensament crític i capacitat intel·lectual. Quan deleguen les seves emocions en avatars i algoritmes, eviten el treball emocional imprescindible per gestionar el món interior. Quan substitueixen interaccions socials per interaccions amb IA, canvien relacions humanes complexes –imperfectes però qualitativament superiors– per intercanvis més fàcils, sense fricció i qualitativament més pobres amb algoritmes. I quan desplacen la confiança des de les persones cap a la IA, curtcircuiten la confiança relacional tan necessària per creure en els altres, en els fets, en la competència aliena i, en darrer terme, en el seu propi judici. Això amenaça tant l’eficàcia com l’autoeficàcia, que són pilars fonamentals de l’ensenyament i l’aprenentatge. També erosiona la confiança epistemològica en el coneixement, en els experts, en les institucions i en el sistema educatiu mateix, i em preocupa que ens apropi al cinisme i al nihilisme.

Uf, no és un panorama senzill…

Aquests danys afecten els fonaments mateixos del desenvolupament humà i social. Per això crec que governs i empreses tecnològiques tenen la responsabilitat de protegir l’alumnat davant seu, de manera que l’ús de la IA en educació sigui deliberat, productiu, ètic i responsable.

 

La IA com a tutor: el parany de confondre productivitat amb aprenentatge 

Recentment ha analitzat com la tutoria reforçada amb IA pot igualar els resultats de la tutoria humana. Tot i això, també adverteix sobre «l’aprenentatge disminuït per la IA». Com podem garantir que la IA segueixi sent un “company de pensament” per a l’alumnat i no simplement una “eina de productivitat” que eludeix el procés –difícil però necessari– d’aprendre i enfrontar-se a un concepte?

És un desafiament tècnic, regulador, pedagògic i humà. En primer lloc, les empreses tecnològiques poden modificar el disseny de les plataformes adreçades a l’alumnat. Poden desantropomorfitzar-les per reduir la implicació constant (excepte, potser, a plataformes de tutoria), fer-les menys complaents perquè qüestionin les creences dels estudiants. Poden dissenyar-se, com sostenim a l’informe de Brookings, per potenciar la curiositat, aprofundir la comprensió, revelar la informació de manera progressiva i fomentar-ne un ús responsable; en essència, per a ensenyar i no simplement dir.

Una IA que ensenya -i no només informa- comprèn eines i plataformes dissenyades específicament per a nens que enriqueixen l’aprenentatge. Utilitzen continguts verificats, rigorosos i curats, no informació indiscriminada de la web oberta. Aquestes plataformes no aboquen dades sense més ni més, com passa amb les IA de propòsit general; estructuren l’aprenentatge de manera guiada, plantegen preguntes, ofereixen la informació de manera gradual, de manera que guien l’estudiant, mantenint-ne ell —no la IA— el control. Limiten les interaccions i incorporen salvaguardes per evitar la deriva conversacional. El millor exemple probablement sigui Khanmigo. N’hi ha també d’altres, com ara la versió educativa del model de llenguatge de ChatGPT.

Aleshores, la IA pot convertir-se en un «company de pensament» en aquestes plataformes?

Si la IA ha d’exercir aquest paper, haurà d’incorporar principis d’aprenentatge avalats per la investigació i coherents amb l’arquitectura cognitiva del cervell: activació de coneixements previs, gestió de la memòria de treball, pràctica de recuperació, intercalat (barrejar diferents temes o tipus de problemes relacionats en una mateixa sessió), interrogació elaborativa, cicles de retroalimentació significatius i exemples resolts pas a pas en matemàtiques, no solament la resposta final, sinó el procés complet de resolució. Aquests elements no poden ser opcionals; han de constituir trets estructurals fonamentals de la interacció entre IA, plataforma i estudiant. I una de les millors maneres d’aconseguir-ho és implicar substantivament docents i estudiants en el disseny d’aquestes aplicacions.

Ara bé, dissenyar plataformes així és difícil i fins i tot contraintuïtiu per a la pròpia IA, perquè s’ha de resistir als seus impulsos d’eficiència. Per això moltes plataformes suposadament «educatives» se centren en la participació i el temps en tasca, i després confonen aquestes mètriques amb aprenentatge real. Això no canviarà tret que la regulació governamental i els sistemes educatius obliguin les empreses a fer que aquests productes siguin veritablement educatius. Això implica regulació —cosa que als Estats Units no existeix. De fet, el Departament de Justícia va crear el mes passat un grup específic de litigació sobre IA per demanar als estats les lleis dels quals en aquesta matèria l’administració considera excessivament restrictives. És una clara usurpació federal de competències estatals.

En absència de regulació, els districtes escolars, estats, províncies o països poden establir els seus propis estàndards d’IA educativa i exigir que les empreses s’hi ajustin; fins i tot es poden coordinar i utilitzar el seu poder de compra per condicionar l’adquisició d’aquestes eines al compliment dels estàndards esmentats. També poden establir límits d’edat per a l’ús de la IA, com ja passa amb les xarxes socials, l’aplicació i el control de les quals han d’assumir les mateixes empreses tecnològiques.

I quin paper tenen els docents i la pedagogia?

El professorat ha de fomentar una forma de pensament sistèmic sobre la IA. Ha d’ajudar l’alumnat a utilitzar aquestes eines per a la pràctica guiada, assegurant alhora que resolguin problemes similars de manera independent per consolidar competències. Els ha d’ajudar a comprendre on la IA pot potenciar l’aprenentatge i quins són els riscos d’automatitzar-lo. I els ha d’ensenyar a interrogar —no acceptar sense més ni més— els continguts generats. Això implica treballar una síntesi crítica en comptes d’un consum passiu i garantir que l’alumnat interactuï amb la IA mitjançant una pràctica reflexiva que preservi la comprensió profunda essencial per a l’aprenentatge interdisciplinari.

És un desafiament pedagògic…

El professorat ha de modelar un ús productiu de la IA mentre ensenya a destriar qualitat, pertinència i biaix, oferint aquestes capacitats crítiques com a contrapès necessari davant de l’eficiència seductora d’eines que proporcionen informació a punt per utilitzar, sovint enganyosa, incompleta o errònia. El desafiament pedagògic no consisteix a rebutjar la utilitat de la IA, sinó a desenvolupar a l’alumnat la disciplina intel·lectual necessària per utilitzar-la sense renunciar al treball cognitiu que constitueix l’autèntic aprenentatge. Tot això variarà segons els sistemes educatius, matèries i edats.

Les persones en general, no només els estudiants, mantenen una relació personal amb la tecnologia…

Per suposat. Necessitem examinar la nostra pròpia relació amb la tecnologia. La nostra actitud cap a eines com la IA és plena de contradiccions, moltes d’elles prou difícils de resoldre. Estimem la tecnologia perquè ens facilita les tasques i sovint ens distreu de pensaments i activitats cognitivament i emocionalment exigents. Tot i això, la IA representa una força de transformació immensa que pot alterar el món de maneres que ningú preveu —o desitja—.

Com es pot gestionar aquesta tensió?

Cito una cosa que vaig escriure i en la qual crec fermament: hem de trobar una manera millor de gestionar la nostra relació amb la tecnologia que equilibri les nostres prioritats com a éssers humans. Hem de mantenir els «ulls ben oberts» i actuar amb agència i equilibri en utilitzar eines potencialment transformadores com la IA generativa.

Podem abraçar-la amb entusiasme i, alhora, defensar el discerniment en la seva aplicació. Podem valorar-ne els beneficis sense cedir el control sobre les nostres decisions. Podem fer-la servir com a eina de suport sense tornar-nos-en dependents. Podem ésser usuaris informats i entusiastes sense deixar de prioritzar la dimensió humana de l’educació. Però per això hem de romandre vigilants, conscients no només del que podem guanyar, sinó també del que hi podem perdre.

 

L’autonomia docent en una era automatitzada

Si el 2021 el repte era ajudar tots els docents a utilitzar la tecnologia, el 2026 sembla evitar que la tecnologia substitueixi la seva autonomia professional. Com poden mantenir la seva autoritat quan els algorismes generen programacions i corregeixen assaigs en segons?

La disminució de l’autonomia docent a l’era de l’IA és una preocupació real, encara que la base empírica encara sigui limitada. El 2024 vaig publicar un capítol titulat “Eyes Wide Open: What We Lose from Generative AI”, on argumentava que els adults –professorat universitari, docents i jo mateixa– vam córrer el risc d’externalitzar el nostre treball cognitiu i la nostra autonomia professional a models de llenguatge a canvi d’estalviar temps.

No és un problema exclusiu de l’alumnat: com a éssers humans, estem predisposats a cercar dreceres, a optar pel camí de menor resistència i a delegar l’esforç cognitiu. Aquesta vulnerabilitat es va veure confirmada a les meves converses amb docents per a l’informe de Brookings. Molts van reconèixer obertament que els costa de no dependre en excés de la IA, un patró que també han documentat informes recents sobre l’ús de la IA en educació.

Però el professorat pateix pressions socials i manca de temps…

La pressió temporal és un predictor significatiu de la delegació cognitiva a l’alumnat, i probablement també al professorat. Tot i el tòpic contrari, estudis als EUA i el Regne Unit mostren que els docents treballen més hores que altres professionals. A més, la majoria són dones, moltes amb responsabilitats familiars addicionals. Aquesta convergència de pressió professional i personal fa que delegar no sigui només temptador, sinó racional.

I la IA ofereix una drecera fàcil…

Les conseqüències d’externalitzar el treball cognitiu de l’ensenyament a la IA generativa són, tanmateix, significatives. La planificació didàctica, la pràctica reflexiva i la preparació personalitzada no són elements accessoris de la docència: en constitueixen la identitat i la perícia professional. Quan el professorat renuncia a aquest treball intel·lectual, s’exposa a allò que només es pot descriure com una forma d’alienació en sentit marxià: una fragmentació de la relació entre el treballador, el treball, els destinataris d’aquest treball i ell mateix. En concret, delegar la planificació en una plataforma d’IA pot distanciar el docent del producte d’aquesta planificació; de la implicació personal i del pensament iteratiu que el propi procés de planificar exigeix; de la dimensió col·legiada del treball compartit amb companys de nivell o departament; d’aquells col·legues que continuen dissenyant allò que podríem anomenar programacions “artesanals” sense assistència de la IA; de les necessitats individuals del seu alumnat; i, en darrer terme, del seu propi potencial professional. A mesura que s’aprofundeix la dependència de les eines d’IA, el professorat va cedint progressivament el control d’instruments que estaven pensats per servir-lo, desconnectant-se cada cop més dels elements que constitueixen una agència professional significativa.

Hem de deixar de fer servir la IA a l’ensenyament?

Vull ser clara: no estic defensant que la IA s’abandoni en la docència. Utilitzada com a autèntica cocreadora –és a dir, com una eina que amplia el pensament del docent en lloc de substituir-lo– té un potencial real. Un ús ponderat, en què els resultats s’examinen críticament, es revisen i es corregeixen, pot ser útil i suggestiu; gairebé com comptar amb un assistent docent digital. La preocupació sorgeix quan es produeix una substitució generalitzada: la transferència silenciosa i gradual de responsabilitats professionals nuclears a sistemes d’IA sense que hi hagi reflexió ni qüestionament.

Quin és el paper de les institucions educatives?

Les institucions educatives tenen un paper decisiu en la preservació de l’autonomia professional docent. Han d’afirmar de manera clara i constant que les eines d’IA estan concebudes per amplificar i donar suport a la tasca del professorat, no pas per a automatitzar-la. Han d’invertir en una formació contínua i sostinguda tant en alfabetització a IA com en disseny didàctic, i protegir el temps del professorat mitjançant polítiques intencionades d’organització horària i càrrega de treball. La IA en educació no ha de ser una cosa que es faci als docents, sinó amb ells. Han de tenir una veu substantiva en el disseny de les plataformes educatives d’IA i en totes les decisions d’adquisició i governança relatives al seu ús als centres —no com a gest simbòlic o simple tràmit, com passa massa sovint. I, de manera més fonamental, com a societat hem de renovar el nostre compromís amb la professionalització i la validació de la docència com una tasca intel·lectual valuosa, la identitat de la qual rau en el judici professional, el coneixement relacional i la cura ètica.

Responsabilitat ètica, una cosa crucial.

Aquí el professorat també té una responsabilitat: reflexionar amb honestedat sobre el grau en què està utilitzant la IA i ser transparent al respecte amb col·legues i estudiants. Aquest tipus de reflexió resulta més sòlida i sostenible quan es produeix al si d’una comunitat de pràctica, on els docents poden recolzar-se mútuament per gestionar les tensions reals entre eficiència i integritat professional i, en fer-ho, preservar-ne tant l’autonomia professional com personal.

 

Més enllà del soroll: identificar el valor real de la tecnologia

Sovint ha parlat del soroll en la tecnologia educativa. Avui el soroll al voltant de la IA és ensordidor. Segons la seva investigació, quin seria un «senyal» —una aplicació concreta de la IA generativa— que oferís un avenç real, recolzat per evidència, per a estudiants en contextos amb recursos limitats?

Pel que fa a la IA generativa en educació en termes generals, seguim confonent el soroll amb el senyal i prenent el perjudici per ajut. Però potser el senyal més sòlid fins ara procedeix de la tutoria amb IA. Els Sistemes Intel·ligents de Tutoria (ITS) tradicionals precedeixen de molt la IA generativa i s’han basat en IA simbòlica, analítica predictiva i, posteriorment, aprenentatge automàtic. Aquests sistemes compten amb una base d’evidència àmplia i metodològicament rigorosa que demostra efectes positius en l’aprenentatge de l’alumnat —inclosos estudiants amb dificultats i en contextos de recursos baixos com l’Índia, la Xina rural, El Salvador o l’Àfrica subsahariana— en ampliar l’accés equitatiu a suports educatius que abans només estaven a l’abast dels que disposaven de més mitjans.

Aleshores, aquests sistemes de suport basats en IA poden ser eficaços en aquests contextos?

He escrit sobre això tant al document de reflexió de l’Informe GEM com a la meva publicació de 2023 Distance Education for Teacher Training: Modes, Models and Methods. L’eficàcia d’aquests sistemes de tutoria deriva del disseny –és a dir, de la incorporació de principis pedagògics sòlids de tutoria– i no de la tecnologia en si mateixa. El problema és que bona part de la investigació i del discurs actual sobre la IA per a tutoria confon la IA generativa amb aquests sistemes anteriors, atribuint erròniament a la primera una base empírica consolidada que no li correspon específicament. No es tracta de les mateixes tecnologies, i la distinció és crucial per a interpretar adequadament les afirmacions sobre allò que funciona.

Hi ha aleshores evidència científica que recolzi aquesta idea?

Un cop dit això, sorgeix un corpus creixent d’investigació d’alta qualitat —procedent d’institucions com el Banc Mundial, Stanford, Harvard o Google— que suggereix que quan programes de tutoria consolidats integren IA generativa, o quan els sistemes de tutoria es construeixen sobre grans models de llenguatge, poden generar beneficis d’aprenentatge significatius, en alguns casos també per a alumnat més desafavorit. Ara com ara, la majoria dels efectes observats són a curt termini, específics de tasques concretes i dependents del context, més que longitudinals o sistèmics. Per tant, cal ser prudents en l’atribució causal i en la generalització de resultats.

És, sens dubte, una qüestió complexa.

Això no obstant, ja sigui com a part d’un ITS o com a plataforma independent, la IA generativa pot aportar possibilitats que suposen un canvi rellevant respecte al que oferien els sistemes anteriors basats en regles. I és aquí on la confusió que esmentava abans pot adquirir un sentit productiu en comptes de merament cautelar. La capacitat de la IA generativa per produir llenguatge natural —i fins i tot algunes de les característiques que he criticat en altres contextos, com ara la seva tendència a la interacció antropomòrfica— pot resultar pedagògicament valuosa si es dissenya de manera deliberada.

Algun exemple concret?

En posaré un de propi. Per preparar un treball amb un grup de docents a Itàlia, vaig dissenyar un chatbot històric que no respon directament a les respostes de l’alumnat, sinó que utilitza figures italianes cèlebres per animar els estudiants a compartir allò que saben i, a continuació, formula preguntes aclaridores. El to és proper i conversacional, però professional. Aquest disseny conversacional i parcialment antropomòrfic pot oferir cert grau de diàleg socràtic i proporcionar retroalimentació personalitzada que sigui receptiva a les necessitats de l’aprenent. Com el meu chatbot, els grans models de llenguatge poden generar diàlegs naturals, com ara explicacions adaptades a preguntes individuals de l’alumnat, en lloc de limitar-se a seleccionar respostes preprogramades típiques dels sistemes de tutoria basats en regles. Els estudiants poden formular preguntes de seguiment en llenguatge natural i rebre respostes contextualitzades, mentre que els sistemes d’IA poden oferir retroalimentació sofisticada davant de respostes obertes, especialment en àmbits com l’escriptura o la resolució de problemes matemàtics. Això aborda una de les limitacions històriques dels sistemes basats en regles, que tenen dificultats quan les preguntes de l’alumnat s’aparten dels itineraris previstos. Per acabar, els sistemes de tutoria amb IA generativa poden crear un espai psicològicament segur per a l’aprenentatge. Les plataformes no perden la paciència ni jutgen, i els estudiants poden plantejar dubtes sense vergonya ni por. La naturalesa individualitzada de la tutoria aporta un grau de privadesa davant dels companys, i el seu caràcter asincrònic permet a l’alumnat treballar quan se sent més disposat per aprendre. Investigacions realitzades en contextos instruccionals específics –especialment estudis centrats en la retroalimentació en escriptura– han constatat que els estudiants que reben comentaris generats per IA, en particular aprenents de segona llengua (L2), poden obtenir resultats comparables als dels que reben retroalimentació tradicional del professorat. Aquestes troballes apunten a una equivalència aproximada –no a una superioritat– en condicions controlades, i no s’han de sobregeneralitzar. La implicació més rellevant no és que una forma de retroalimentació hagi de substituir l’altra, sinó que, a l’àmbit de la tutoria, l’alumnat pot beneficiar-se d’estratègies híbrides que integrin suports pedagògics dissenyats per docents amb aprenentatge adaptatiu i retroalimentació generats per IA.

 

La paradoxa de l’equitat el 2026

Després de la pandèmia de coronavirus parlàvem de la «bretxa digital» en termes d’accés a internet. Avui ens enfrontem a una “bretxa de la IA”.

La tecnologia sempre ha promès inclusió per a l’alumnat més pobre del món, però en general ha acabat generant exclusió. Lamentablement, la investigació sobre desplegaments massius de tecnologia educativa en contextos com l’Àfrica subsahariana demostra que la tecnologia, per si sola, poques vegades tanca les bretxes d’aprenentatge —i sovint les amplia—, per la qual cosa no sóc optimista respecte que la bretxa de la IA es reduirà en un futur pròxim. El meu pessimisme parteix d’una realitat evident: la inclusió digital i educativa no es pot produir sense els suports més bàsics —accés a un dispositiu, connexió a internet, programari i un docent qualificat i compromès—. I tot això s’ha d’integrar en un sistema educatiu sensible a les necessitats de les comunitats que amb més freqüència queden excloses de l’accés a la tecnologia. Aquests no són requisits tècnics; són requisits polítics.

Com evitem un futur en què l’alumnat dels països rics rebi una educació dirigida per docents humans i recolzada per IA (com vostè va assenyalar a la Conferència IFE de 2026, on afirmava que les IA’s generatives de pagament són les que augmenten la fiabilitat), mentre que els estudiants del Sud Global rebin una escolarització «només automatitzada» o depenguin de les IA’s generatives poc fiables?

Dissenyar pensant en l’equitat i la qualitat és, sobretot, una decisió política. Implica prioritzar de manera pública i efectiva l’equitat i la qualitat dins del sistema educatiu; dirigir deliberadament recursos i inversions cap a les comunitats marginades; desenvolupar iniciatives adaptades a les necessitats locals en comptes d’imposar solucions uniformes; establir estàndards, ajudar el professorat a assolir-los i exigir responsabilitat als sistemes educatius; i consultar i col·laborar amb les comunitats en comptes d’imposar dictats externs. Tot això es veu agreujat pels elevats costos dels processadors i dels models de IA fiables i precisos. No responsabilitzo del tot les empreses tecnològiques —els seus costos de desenvolupament són tan alts que concentren els seus productes en països i sistemes que els poden pagar—, però les conseqüències recauen amb més duresa sobre els que ja estaven en situació de desavantatge.

És responsabilitat dels governs?

Tancar la bretxa de la IA exigeix ​​que els països assumeixin que l’equitat s’ha d’estendre a tots els éssers humans. La inclusió no es pot supeditar a una capacitat que mai no s’ha construït; en lloc d’aplicar criteris de “preparació” que exclouen de facto les comunitats marginades de la transformació impulsada per la IA, un enfocament basat en l’equitat implicaria donat suport a sistemes educatius, centres i comunitats amb recursos insuficients mitjançant polítiques específiques i una reassignació estratègica de recursos. Hi ha iniciatives que intenten avançar en aquesta direcció, com ara la Declaració d’Hamburg sobre IA responsable per als Objectius de Desenvolupament Sostenible del Programa de les Nacions Unides per al Desenvolupament.

Però vostè és pessimista…

Molts països freturen no només de voluntat, sinó també de coneixements tècnics i de recursos per dur a terme aquestes transformacions, i d’aquí el meu pessimisme. Alguns governs i sistemes educatius amb pocs recursos podran diversificar el finançament de la IA i de l’educació mitjançant enfocaments innovadors que creïn infraestructures sostenibles i, al mateix temps, enforteixin la capacitat i l’apropiació local —per exemple, mecanismes de Finançament Innovador per a l’Educació (IFE) que no es limitin a esperar que augmentin els pressupostos nacionals, sinó que construeixin activament noves vies de finançament que situïn l’equitat i la implicació comunitària al centre. Però molts altres no no ho podran fer. I és possible que les regions més pobres del planeta només aconsegueixin avançar si aconsegueixen atraure l’interès de donants internacionals que facin viables aquestes solucions.

I què passa amb els docents IA en aquests contextos?

Pel que fa als anomenats “docents IA”, convé recordar que la tecnologia té una llarga trajectòria proporcionant accés a l’aprenentatge en comunitats on no hi ha ensenyament presencial de qualitat. La instrucció interactiva per àudio, la tutoria radiofònica en directe o programes televisius com la Telesecundària a Mèxic han ampliat les oportunitats educatives a comunitats sense docents; han portat el currículum nacional a zones remotes; i han donat suport a docents voluntaris de la comunitat amb poca o cap formació. Un docent humà qualificat i competent sempre és preferible a una solució tecnològica, però un docent basat en IA és millor que l’absència total d’ensenyament. A les comunitats i escoles més pobres del món que no tenen suport financer extern —i més encara en un context de greu escassetat mundial de professorat—, la veritable tragèdia és que l’alumnat pot no tenir accés a res.

Finalment, Mary, va ser un plaer escoltar-la a Monterrey i ara haver pogut aprofundir una mica més en aquestes qüestions. Gràcies en nom dels lectors d’Educational Evidence.

Gràcies! Ha estat un veritable honor.

___

Mary Burns ens recorda que, encara que la tecnologia hagi canviat més els darrers cinc anys que en les dues dècades anteriors, el nucli de l’educació continua sent una tasca profundament humana. La seva crida a protegir el desenvolupament cognitiu de l’alumnat en un món automatitzat és, potser, la lliçó més important per al professorat.

 


Referències:

Burns, M. (2021). Documento de referencia preparado para el Informe de seguimiento de la educación en el mundo de 2023, Tecnología y educación: La tecnología en la educación. UNESCO: https://unesdoc.unesco.org/ark:/48223/pf0000378951_spa

Burns, M. (2023). Distance Education for Teacher Training: Modes, Models, and Methods. Washington: EDC. http://go.edc.org/07xd

Burns, M. (2024). Eyes Wide Open: What We Lose from Generative Artificial Intelligence in Education. In:

Burns, M. (2026). What the research shows about generative AI in tutoring. https://www.brookings.edu/articles/what-the-research-shows-about-generative-ai-in-tutoring/

Burns, M. Et al. (2026). A new direction for students in an AI world: Prosper, prepare, protect.  https://www.brookings.edu/articles/a-new-direction-for-students-in-an-ai-world-prosper-prepare-protect/


Font: educational EVIDENCE

Drets: Creative Commons

Leave a Reply

L'adreça electrònica no es publicarà. Els camps necessaris estan marcats amb *