La clave de la inteligencia artificial en la educación es respetar los DDHH: Wayne Holmes

Jue, 31 Ago 2023
El también asesor de la UNESCO presentó una ponencia magistral durante el Foro Construyendo el Futuro de la Inteligencia Artificial, que se lleva a cabo en la IBERO Ciudad de México
ChatGPT “estandariza las perspectivas”, priorizando la visión de los contextos actualmente dominantes, como Estados Unidos y Europa, dice el experto
  • El Dr. Wayne Holmes impartió la conferencia magistral ‘La ética de la inteligencia artificial en la educación. Prácticas, desafíos y debates’. (Foto: Alberto Hernández)

El Dr. Wayne Holmes, experto en la ética de la inteligencia artificial (IA) en la educación, dio cátedra en la IBERO Ciudad de México durante el Foro Construyendo el Futuro de la Inteligencia Artificial. Señaló que las y los desarrolladores de las tecnologías que acompañan los procesos educativos han hecho un gran trabajo, pero que no se debe perder de vista que la sociedad debe encauzar estas aplicaciones a lo realmente importante: que nos ayuden a innovar la enseñanza y el aprendizaje y que, al mismo tiempo, respeten los derechos humanos, mientras nos aseguramos de que el estudiantado mantenga su autonomía y que el profesorado no pierda poder

Puso mucho énfasis en que a la fecha no hay ningún sistema de inteligencia artificial que merezca el término de inteligente. Y también afirmó que los sistemas de enseñanza --tanto tradicionales como con ayuda de la tecnología-- serán verdaderamente personalizados cuando ayuden al estudiantado a convertirse en lo mejor que pueden llegar a ser personalmente para autorrealizarse. Mientras, expresó su preocupación por la tendencia de ChatGPT a estandarizar las perspectivas

La IA no es tan impresionante como pensamos 

El también asesor especializado en investigaciones sobre IA y educación para la UNESCO comenzó por señalar una serie de limitaciones de los sistemas de IA, su intención declarada era “reventar la burbuja” de la creencia de que estas tecnologías son asombrosas. Mencionó la dificultad de las IA para identificar imágenes cuando se introducen distorsiones (problema que no tienen las personas), así como sesgos que caen en el racismo en el caso del reconocimiento facial. 

 

La IA no existe sin los seres humanos. “Sin una persona estableciendo los objetivos, no pasa nada; sin una persona escogiendo y limpiando los datos, no pasa nada; sin una persona etiquetando los datos, no pasa nada”.

 

Añadió que son las personas quienes diseñan la red, la entrenan, hacen la curaduría de los resultados y, más importante, hacen los juicios de valor. 

En la otra cara de la moneda, dijo, “no deberíamos molestarnos necesariamente con los sistemas de IA, deberíamos estar pensando en las personas detrás de estos sistemas”, que son quienes asignan los presupuestos y hacen las investigaciones. Como ejemplo, presentó un análisis que contempló más de 2 mil estudios de IA, de los cuales ninguno tuvo aplicaciones clínicas. 

¿Cómo funcionan la enseñanza y el aprendizaje con inteligencia artificial? 

Wayne Holmes hizo la distinción entre dos “cubetas”: la enseñanza y el aprendizaje con IA, por un lado, y la enseñanza y el aprendizaje sobre la IA, por el otro, ambas importantes y relacionadas entre sí. 

Sobre la enseñanza y el aprendizaje con IA, señaló que hay tres aplicaciones de estas tecnologías: enfocada en el estudiantado, en el profesorado y en la institución. Señaló que las que se usan a nivel institucional es el tipo de IA en educación que va a crecer masivamente en el futuro. 

La educación centrada en el estudiantado son en su mayoría sistemas de tutoría inteligentes. Pero insistió en que estos sistemas no son realmente inteligentes, por lo que prefiere llamarlos sistemas adaptativos de tutoría. Y funcionan de la siguiente manera: con base en cómo el estudiantado resuelve las actividades y los problemas, eso cambia las siguientes actividades que se le van a presentar, lo que teóricamente genera su propia ruta de aprendizaje.  

Durante su ponencia magistral La ética de la inteligencia artificial en la educación. Prácticas, desafíos y debates, el especialista mencionó un sistema que le agrada más: los orquestadores de redes. Aquí, cuando las y los estudiantes tienen dudas, la app les conecta con tutores humanos. Con los sistemas adaptativos de tutoría, el sistema decide lo que debe aprender la o el estudiante; con el segundo, la o el alumno decide lo que desea aprender

Al abordar las tecnologías centradas en el profesorado, el Dr. Holmes mencionó que, mientras los otros sistemas tienen por objetivo automatizar algunas de las funciones de las y los profesores, estos últimos buscan cómo ayudarles y brindarles recursos para que lleven a cabo sus actividades. 

¿Cuáles son las limitaciones de la IA en la educación? 

Wayne Holmes lo dejó muy claro: “no hay sistema de inteligencia artificial a la fecha, de ningún tipo, que merezca el término de inteligente. La realidad es que a veces pueden parecer inteligentes, pero hay una gran diferencia entre parecer inteligente y realmente ser inteligente”. 

Señaló también que los sistemas adaptativos de tutoría personalizan la enseñanza de una manera muy limitada. “Solamente personalizan las rutas, pero no los resultados”. Las compañías desarrolladoras comparan el aprendizaje tradicional con el autobús escolar, que lleva a todos y a todas a la misma velocidad y en la misma dirección, y que las apps pueden asemejarse a un taxi, con un servicio individualizado. 

Siguiendo con esta metáfora, Holmes considera que lo realmente importante de viajar en un taxi no es que la ruta sea personalizada, sino que te lleva al destino que deseas. Así, esas apps pueden guiar al estudiantado por rutas personalizadas, pero llevan a todos y a todas a la misma meta. “Eso no es personalización para mí. La verdadera personalización consiste en ayudar a los estudiantes a convertirse en lo mejor que pueden llegar a ser personalmente para autorrealizarse y poder contribuir al máximo a la sociedad”. 

Además, criticó la idea de que sólo a través de la tecnología se puede lograr esta personalización, pues eso es lo que hacen maestras y maestros a cada momento en el salón de clases.  

Sobre los programas de monitoreo durante exámenes o de detección emocional, señaló que son invasivos, y que en cambio no han demostrado cumplir sus objetivos. Además, su uso compromete varios de los derechos del estudiantado: a la dignidad, a la autonomía, a ser escuchado, a no sufrir discriminación, a la privacidad y a ser protegido de la explotación económica. 

El experto considera que la razón de todos estos problemas es que desde el desarrollo y la investigación se comienzan por la IA y después se ve en qué problemas se puede aplicar, cuando tendría que ser al revés, y esa es la clave. Por ello, insistió en que primero se debe escuchar a las personas realmente involucradas y comprometidas con la educación. 

La línea de base son los derechos humanos 

El Dr. Holmes señaló que la principal preocupación de la IA en la educación no deberían ser los datos, sino la ética de la pedagogía. “Nuestro verdadero problema en cuanto a ser éticos es tratar de llegar a una línea de base con la que todos estemos de acuerdo. Y hay todo un campo de investigación en la informática al respecto que se llama problema de alineación”. Una de las maneras en que podemos hacerlo es comenzar por los derechos de la niñez, los mismos que están siendo comprometidos por estas tecnologías. 

Todas las universidades del mundo ofrecen algún tipo de curso sobre cómo desarrollar IA, cómo hacer aprendizaje automático y cómo hacer análisis de datos, dijo el Dr. Holmes. “El problema es que todos están enfocados en la dimensión tecnológica de la IA, cómo funciona y cómo crearla, y de lo que casi ninguno habla es del impacto humano de estas tecnologías, y eso es perdemos la mitad de la historia”. Lo comparó con saber manejar un auto, por un lado, y conocer las reglas de tránsito para proteger la seguridad de las personas, por otro lado.  

ChatGPT parece humano pero no lo es 

“El problema con ChatGPT es que parece humano, pero no lo es. Parece preciso, pero no lo es. Parece inteligente, pero no lo es. Parece que entiende, pero no lo hace. Estos sistemas no entienden nada”, dijo categórico Wayne Holmes. 

Consideró que sistemas como ChatGPT “estandarizan las perspectivas”, priorizando la visión de los contextos actualmente dominantes, como Estados Unidos y Europa, y marginando a África y a América Latina. Además, dijo, las respuestas de ChatGPT son muy superficiales, contienen muchos errores y dejan fuera muchos puntos importantes. Y lo que es peor, consideró, es que estos sistemas están generando mucha información que está yendo de vuelta a internet. Así que ChatGPT-5 va a estar entrenando con información generada ¡por ChatGPT-4! Estaremos atrapados en una espiral regresiva. 

Finalmente, el Dr. Wayne Holmes destacó que no está totalmente en contra de la IA, sino que considera que se debe hacer una pausa para ver el panorama completo y pensar con mucho cuidado sobre el rumbo que están tomando las cosas. 

Texto: Yazmín Mendoza. Fotos: Alberto Hernández

Mesa de diálogo sobre el futuro de la educación ante la IA
Conferencias Magistrales
Notas relacionadas

 

Las opiniones y puntos de vista vertidos en este comunicado son de exclusiva responsabilidad de quienes los emiten
y no representan necesariamente el pensamiento ni la línea editorial de la Universidad Iberoamericana.

Para mayor información sobre este comunicado llamar a los teléfonos: (55) 59 50 40 00, Ext. 7594, 7759
Comunicación Institucional de la Universidad Iberoamericana Ciudad de México
Prol. Paseo de la Reforma 880, edificio F, 1er piso, Col. Lomas de Santa Fe, C.P. 01219