Luis Magdalena: “Si no aplicamos bien la inteligencia artificial, nos arriesgamos a producir clones de estudiantes”
Es crítico con la inteligencia artificial (IA). Y no es porque hable sin conocimiento de causa. Luis Magdalena, catedrático de Ciencia de la Computación de la Universidad Politécnica de Madrid, lleva décadas trabajando en esto de la IA y ha visto, dice, “modas que prometían mucho pero que eran una barbaridad”. Es, además, vicepresidente de la Asociación Española para la Inteligencia Artificial (AEPIA). Desde ambas tribunas pide tiempo y cautela con “un caramelo que nos han dado y hay que saber administrar”. E invertir, añade, “en las direcciones adecuadas, no para beneficiar a determinadas empresas”. Lo advierte ante el auditorio de uno de los eventos educativos más importantes del año, enlightED, impulsado por Fundación Telefónica, South Summit, IE University y Fundación ”la Caixa”. Cuando concluye la clase magistral, le pido tutoría para seguir ahondando en un tema con más dudas que certezas, aunque la fiebre nos ciegue.
Estamos yendo demasiado rápido, ¿no?
―Hay que ser cauteloso. La IA tiene un potencial tremendo, pero si aceleramos tanto corremos el riesgo de plantear expectativas inalcanzables.
“Actividad de alto riesgo”, así será considerada la IA en la educación, según la ministra en funciones.
―Es que la educación es un ámbito extremadamente complejo que se compone no solo de conocimientos, sino de otros muchos aspectos, como el afectivo y el emocional, algo que no podemos descuidar.
¿Y se está descuidando?
―Imagínate, por ejemplo, que diseñamos un tutor inteligente, lo ponemos en el aula y en esa clase hay un par de alumnos con necesidades especiales: ¿los estamos integrando o los estamos segregando? Esa es la pregunta que hay que hacerse.
¿Y la respuesta?
―Yo creo que los estaríamos segregando. Quizá se tendría que hacer al revés: poner la máquina con los alumnos «normativos» y al profesor con aquellos que tienen alguna necesidad especial. En cuestiones como esta, si vamos demasiado rápido, podemos equivocarnos. A diferencia de otros ámbitos, en la educación quien recibe el beneficio o el perjuicio es una persona.
Entiendo, entonces, que la IA tiene perjuicios…
―Hay que seguir investigando, por eso tenemos que ser cautos con los sesgos que puede introducir. Un sistema de IA aprende lo que tú le enseñas y, si todos los datos que le introduces están pensados para un alumno promedio, aquellos con dificultades de aprendizaje o de comunicación tendrán problemas. La cuestión es que no se puede usar un mecanismo automático para tratar con lo único y especial. No se puede diseñar a medida porque cada individuo es distinto y si ya a un profesor con experiencia le cuesta, imagínate a la máquina…
El docente, por tanto, seguirá siendo imprescindible.
―Por supuesto. Cualquiera de nosotros se podrá acordar de aquel profesor que consiguió que nos apasionara su asignatura. No podemos desperdiciar esto porque la vocación se nos inculcó por la persona que había detrás. Por eso hagámoslo de una forma que ni segregue a los que tratamos de integrar ni excluya a los que tienen que formar parte del sistema.
¿Y cómo?
―Para empezar, hay que dejar espacios libres de IA. El razonamiento, la capacidad crítica y el responsabilizarse de las propias acciones deben permanecer como siempre. Es cierto que disponemos de herramientas que permiten mejorar la educación, complementarla, pero no podemos administrarlas de manera que excluya.
Muchos profesores se sienten así, excluidos.
―Es que a ellos también se les segrega. Después del covid, he visto cómo muchos se han prejubilado porque se sentían superados por el cambio tecnológico. Pero no podemos dejarlos atrás: los docentes que tienen 50 y 60 años tienen mucho que aportar al sistema. Para ello, tienen que entender el cambio y para entenderlo deben recibir formación muy específica. La IA tiene mucho potencial, pero tampoco hay que meterla con calzador. Requiere de esfuerzo, tiempo y dinero. Si estamos dispuestos a poner todo eso sobre la mesa, adelante.
¿Tanto dinero como esfuerzo?
―Implantar este cambio cuesta mucho dinero y hay que tener cuidado con destinarlo en las direcciones adecuadas, no para beneficiar a determinadas empresas. Hay que emplearlo para dotar de medios, equipos e infraestructuras, no para pagar a una multinacional porque tenga la “súper herramienta”.
¿Ese es el principal cometido?
―Ese y buscar objetivos tangibles para que la IA no se quede en una idea difusa. A un padre o una madre no le puedes decir que su hijo tiene que usar la IA por los Objetivos de Desarrollo Sostenible. Quiero decir, tiene que ser algo tangible, accionable y medible. Tampoco puede ser una simple orden del político de turno.
¿Saben los políticos dónde nos metemos?
―Desde el punto de vista político, creo que no se está teniendo lo suficientemente en cuenta la complejidad del proceso ni los posibles efectos nocivos. Hablan de la IA con grandes palabras, no con objetivos a nivel del suelo.
¿A nivel del suelo?
―Me refiero a que la implantación de la IA se está haciendo de arriba a abajo, desde organismos de muy arriba, como la Unesco, y a nivel global. Por tanto, se están fijando objetivos muy macros, lo que impide implantar medidas correctivas a nivel micro.
O sea, se está empezando la casa por el tejado…
―Hay que establecer objetivos al nivel de los que van a aplicar la IA en el aula, no de quienes dicen que la tienes que aplicar, es decir, al nivel de profesores, familias y alumnos. También deben ser objetivos que contemplen no solo la índole tecnológica, sino también la afectiva y psicológica. Por tanto, tecnólogos, educadores y pedagogos tendrían que estar trabajando conjuntamente.
¿Y las familias?
―La mitad de los padres es incapaz de ayudar a sus hijos con las tareas porque los cambios les han sobrepasado. Cualquier padre usa el dispositivo móvil peor que su hijo; con la IA pasará igual o peor. Y no podemos romper esta estructura de soporte. No digo que no haya que aplicar la IA, sino que antes hay que pensarlo bien. Yo llevo casi 40 años trabajando en esto y he visto modas que prometían mucho pero que eran una barbaridad.
¿Por dónde empezamos entonces?
―Como digo, por fijar objetivos específicos. De hecho, los grandes éxitos de la IA están vinculados a la resolución de problemas concretos. Un buen ejemplo que lleva funcionando hace ya años son los sistemas de detección de plagio, que descargan al profesor de una tarea sistemática y tediosa.
La regulación, por tanto, deberá ir por ahí.
―Irá seguro por una nueva ley; todo en España acaba yendo por ahí. Pero la futura norma no va a concretar, sino que marcará pautas generales. Por tanto, habrá que diseñar mecanismos más específicos, como buenas prácticas o experiencias piloto, es decir, hacerlo de abajo a arriba. Es mucho más lento, pero ofrece otras capacidades de maniobra y permite introducir paulatinamente elementos de cambio. Pero insisto: no pensando que la IA es apta para todo. Tenemos que ver la educación como un ámbito polifacético, con muchas caras. Por eso, no la abordemos como un objetivo en sí; encontremos cuestiones específicas dentro de ella para las que se pueda aplicar la IA.
¿Qué urge más regular?
―Ahora mismo lo que más se está usando es ChatGPT. En este sentido, creo que quienes utilicen este tipo de herramientas deberían reconocer de algún modo su uso. No solo en el ámbito educativo, sino en todos porque el uso de este tipo de herramientas puede violar la propiedad intelectual, por ejemplo.
¿La IA fomenta el plagio?
―Esto ahora mismo es un problema que ya está sobre la mesa; incluso se hacen tesis con ChatGPT. Para abordarlo hay dos vías: o asumir que el estudiante es responsable o tratar de modificar la forma en que enseñamos para que el efecto de la IA no sea tan nocivo.
¿Y cómo se puede modificar?
―Por ejemplo, en lugar de mandar trabajos que consistan en una simple recopilación de información, podemos optar por otros en los que entren componentes de carácter más creativo. ChatGPT no es infalible y hay preguntas que funcionan como «caballo de Troya» para tumbarlo. Yo, en mi clases, cada vez me centro menos en el cálculo y más en la parte de modelado, es decir, quiero que mis alumnos trasladen un problema del mundo real a las matemáticas porque para eso sirven.
Pero luego se nos olvida multiplicar y dividir…
―Por eso hay que seguir haciendo cuentas, hay que seguir ejercitando la mente. Una cosa no quita la otra. Yo estudié latín en el colegio; no se hablaba pero te ayudaba a entender la evolución del castellano y de otras lenguas. Se puede enseñar para multitud de fines y, sobre todo, hay que saber para qué se enseña, algo que cambia a medida que el entorno también lo hace.
¿Hay interés en que no pensemos el para qué?
―Puede haber cierto interés en educar de determinada manera para que la sociedad actúe de una determinada manera. Es equiparable al pensamiento de “esto es así porque lo dice un político”. En su lugar, deberíamos comprobar por nosotros mismos y no decir amén a todo. Pero sí, quizá sea parte de la intención: educar a todos exactamente igual, con los mismos patrones; de esta forma, yo puedo suministrar a la máquina los datos y las dosis que quiero para conseguir que mi producto sea enteramente igual. Si quieres ciudadanos sin capacidad crítica, empieza por educar a estudiantes sin capacidad crítica.
¿Eso es, al final, lo que está en riesgo?
―No solo eso, sino también la capacidad crítica del propio docente. No hay que descuidarla porque, si la pierde, no se la traslada al estudiante. Debemos mantener la dimensión humana y mantenerla pasa por administrar adecuadamente el caramelo que nos ofrece la IA. O la aplicamos de forma adecuada o corremos el riesgo de cargarnos el sistema y acabar produciendo clones de estudiantes.
Fuente: Magisnet