• Opinión
  • 23 de mayo de 2024
  • Sin Comentarios
  • 7 minutos de lectura

Un mantra recorre Europa

Un mantra recorre Europa

Un mantra recorre Europa

La Inteligencia Artificial no te quitará el trabajo; lo hará alguien que sepa usarla”

Gerd Altmann. / Pixabay

Licencia Creative Commons 

 

Enrique Benítez Palma

 

Es divertido comenzar un artículo parafraseando el inicio del Manifiesto Comunista. El mantra -que no el fantasma- que recorre Europa y buena parte de los países económicamente avanzados tiene que ver con el impacto esperado de la Inteligencia Artificial (IA) en el mercado de trabajo. Y ante el anunciado cataclismo que espera a empleados, empleadores y estudiantes, desde numerosas organizaciones y medios de comunicación se repite y repite la frase, de autoría confusa, cuya genealogía parece conducir a Fei Fei Li, de la Universidad de Stanford.

Sin embargo, leyendo directamente a Fei Fei Li, todo un referente en el ámbito de la ética de la inteligencia artificial, las cosas cambian de color. Porque, entre otras cosas, es una de las fundadoras del Institute for Human-Centered AI. En una entrevista de 2024, la profesora advierte de algo bastante real e incontestable: “la diferencia entre los que entienden cómo utilizar la IA y los que no, va a tener efectos extremadamente profundos”. En la misma entrevista, defiende el papel del sector público como evaluador de la IA, y recuerda la responsabilidad de los desarrolladores e ingenieros a la hora de reflexionar sobre los impactos éticos y sociales de sus avances tecnológicos. Estos planteamientos llevan a poner sobre la mesa el llamado “momento Oppenheimer” de la IA, resumido en la fantástica frase que escribe Benjamin Labatut en MANIAC: “si nuestra especie iba a sobrevivir al siglo XX, necesitábamos llenar el enorme vacío dejado por la huida de los dioses, y la única candidata viable para realizar esa extraña y esotérica transformación era la tecnología”.

Para Fei Fei Li, “la educación es crítica”. Pero ¿qué educación? ¿Una educación que, de nuevo, ponga el foco, el interés y la financiación en el aprendizaje de ciertas herramientas para lograr una mejor inserción laboral de los estudiantes? ¿Una formación continua de los trabajadores para lograr una mejora de sus capacidades –upskilling– de manera que las empresas y el sector público puedan aprovechar todo el potencial de la IA? ¿Acaso no se necesitan también contenidos humanísticos que, en línea con los postulados de Fei Fei Li, permitan analizar, comprender y, llegado el caso, criticar la aplicación de la IA si se hace pasando por encima de la privacidad de las personas, de las leyes o incluso de los derechos humanos más elementales? En las respuestas a estas preguntas pertinentes está la definición del modelo de sociedad en el que creemos: una sociedad de operarios bienintencionados y obedientes, o una sociedad de ciudadanos con capacidades críticas dispuestos a constituirse en un contrapeso activo de los discursos dominantes y los grandes intereses corporativos. No es un asunto menor.

La preocupación por las consecuencias de la explosión de la IA sobre el mercado de trabajo y la empleabilidad ya está ahí. No es momento de analizar los informes ya existentes sobre el impacto en términos de empleo, pero sí que podemos recordar que las llamadas ‘profesiones creativas’, que se creían a salvo, ya sienten la amenaza que supone la IA Generativa, entrenada con grandes masas de datos sin pagar los correspondientes derechos de autor. La galaxia de aplicaciones no deja de crecer, y ese universo expansivo enriquece y empobrece a partes iguales, no siempre de manera equitativa, casi nunca aportando soluciones que no sean el ya conocido ¡sálvese quien pueda!

En este debate sobre la educación que se necesita para afrontar un presente dirigido por las tendencias tecnológicas imperantes, los grandes titulares y el alarmismo irreflexivo, en el que las administraciones educativas parecen ausentes -si es que han comparecido-, destacan algunas propuestas contracorriente que reivindican los valores tradicionales de las humanidades y las ciencias sociales. Es el caso, por ejemplo, de Tallulah Holley, que desde su blog de la London School of Economics sostiene que “al priorizar la formación STEM (Science, Technology, Engineering and Maths) sobre las disciplinas SHAPE (Social Sciences, Humanities and the Arts for People and Economics) en las escuelas preparamos mal a los estudiantes para un futuro complejo”. La propuesta de la profesora Holley es sencilla y razonable, ya que mantiene que “un pensamiento único centrado en la resolución de problemas sólo a través de las STEM no aprovecha la gran cantidad de herramientas de que disponemos y empobrece a todas las disciplinas en el proceso. Si la colaboración es una destreza fundamental de SHAPE, tenemos que trabajar juntos, poniendo sobre la mesa a personas de muy diversa procedencia, experiencia y conocimientos”.

Las tremendas declaraciones de Rishi Sunak amenazando la continuidad de los estudios de Humanidades (“los cursos universitarios que no ofrezcan buenos resultados, con altas tasas de abandono y escasas perspectivas de empleo, estarán sujetos a estrictos controles”) y el avance imparable de postulados políticos entregados al discurso financiado por las grandes corporaciones tecnológicas presagian un futuro incierto y oscuro. La receta, como decía Ulrich Beck, no puede ser la búsqueda de soluciones individuales (biográficas) a contradicciones y problemas sistémicos, y la explosión de la IA es un asunto sistémico. Sería mejor reflexionar con conocimiento de causa sobre todas las consecuencias sociales que trae consigo la IA, y aplicar la ética y la contestada regulación pública, que emana de poderes democráticos. Sin una educación humanística y rigurosa, todos estaremos en manos de los algoritmos, de sus diseñadores y de sus propietarios. El futuro ya está aquí.


Fuente: educational EVIDENCE

Derechos: Creative Commons

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *