Más allá de ChatGPT: ¿Y si la respuesta no es la inteligencia artificial?
Tomar una perspectiva escéptica y reflexiva ante la IA es una forma responsable de dudar del posible impacto esperado (e inesperado) que tiene esta tendencia.
Si recuerdan hace pocos años, durante la pandemia de COVID-19 aparecía de moda la palabra “metaverso” como algo nuevo que revolucionaría la educación y nos permitiría el acceso remoto mediante ambientes virtuales interactivos y dinámicos. La apuesta digital por dicho espacio fue tan grande, que Facebook —ahora renombrada como Meta— ha apostado más de 40 mil millones de dólares en esta tecnología. Queda de más decir que la expectativa y potencial de esta iniciativa aún no ha sido materializada, y numerosas instituciones han abandonado —o puesto en una posición secundaria— al metaverso, por dirigir su atención a la nueva tendencia: la inteligencia artificial (IA).
Por ello, pensando en la primera parte de este escrito publicado en junio de 2023, y tomando un rol de abogado del diablo, deseo invitar a las y los lectores, en palabras de la consultora Gartner, a pasar por el Valle de la Desilusión y pensar, ¿y si la respuesta a nuestros problemas educativos no fuera la inteligencia artificial?
Tomar una perspectiva escéptica y reflexiva ante estas interrogantes quizás no lleve a ser parte de la tendencia, pero es una forma responsable de dudar del posible impacto esperado (e inesperado) que tienen, fortaleciendo el pensamiento creativo al reflexionar en “¿qué es lo que no podemos (o no queremos) ver sobre las propuestas de desarrollo de IA y deberíamos reconocer?”. Este escepticismo no es algo nuevo, dado que se contempla desde la antigüedad, y contemporáneamente dentro de campos como la reducción de riesgos de desastres o la ciberseguridad. Por ello, es valioso recordar que con la creación de cada nueva tecnología —ej. la energía nuclear, la IA para imágenes, o para audio— surgen a su vez usos no deseados de las mismas herramientas, razón que lleva a suscribir una agenda de regulación global para evitar un aprovechamiento inadecuado de la misma.
Parafraseando palabras de Richard Aldrich, historiador de la educación, “vivimos en (…) una era en la que una sola persona puede, en un acto clandestino, causar millones de muertes o hacer una ciudad inhabitable por años” (Aldrich, 2010; p. 2; Rees, 2003, citado por Aldrich, 2010). Bajo este escenario, ¿cuáles son algunos posibles riesgos que enfrentamos desde la educación con el uso de la inteligencia artificial?
Para ello, sugiero revisar las siguientes perspectivas mediante dos preguntas:
¿Quién diseña la inteligencia artificial?
¿A quién le pertenecen los datos educativos?
¿Quién diseña la inteligencia artificial para la educación?
Hablar de educación es hablar de una confianza implícita hacia una autoridad, sea esta un profesor, una institución, y sus servicios como una plataforma o una IA. Si bien, una interacción con inteligencias artificiales conversacionales no nos permite interactuar con su creador, son los alcances y limitaciones de su diseño los que nos comunican aquello que buscan que logremos y no logremos. Mayoritariamente, es posible que encontremos un consenso basado en derechos humanos, el cual pueda ser compartido por múltiples países en sus cimientos, mas al entrar del desarrollo de la persona, ¿cuáles son nuestras expectativas para que la IA nos ayude a crecer cómo personas?
La capacidad de influir en el desarrollo de un infante, por ejemplo, es una de las preocupaciones que se han expresado, dado los efectos perjudiciales que pueden tener en ellos, y acorde a la UNICEF, es un tema que no ha sido explorado profundamente. El uso de dispositivos digitales como televisores, teléfonos inteligentes y tabletas por la infancia, pública Pew Research Center (2020), es reportado por más del 50 % de los padres y madres de infantes de entre 3 y 4 años, muchos de ellos teniendo constantes interacciones no supervisadas con asistentes inteligentes activados por voz, como Alexa y Apple, lo que alienta a su desarrollo psicosocial y su percepción del mundo de modos que requieren una mayor atención e investigación. Si bien quizás no se ha documentado a la fecha, hace unas semanas escuchaba como una maestra de educación primaria decía cómo algunos infantes cambiaron el acto fallido de llamarle “mamá” por llamarle “Alexa” ¿tendrá esto un efecto en las teorías del apego?
De manera similar, si hablamos de aprendizaje a lo largo de la vida, ¿qué rol esperamos que tome la IA en esa posición? ¿Qué peso deberían tener nuestras experiencias previas en nuestro proyecto futuro? Dado que, en concreto, la promoción de nuestros intereses previos en un sistema de recomendación pueden llegar a modelar —o inclusive, reforzar— nuestras preferencias, como lo señala un artículo publicado en el MIT Sloan Management Review (MIT SMR). De este modo, lo que pasaría a ser el mejor interés para el usuario podría estar delimitado por las filosofías e intereses educativos de los proveedores del sistema, institución educativa o gobierno, corriendo el riesgo de excluir rutas de aprendizaje en áreas como el deporte, artes, y humanidades a cambio de otras más cercanas a campos STEM, acrónimo de los términos en inglés Science, Technology, Engineering and Mathematics (Ciencia, Tecnología, Ingeniería y Matemáticas).
¿A quién le pertenecen los datos educativos?
Mientras que las máquinas requieren de recursos energéticos como la electricidad para conllevar un trabajo, la inteligencia artificial requiere otro suministro especial: datos.
La obtención de los datos educativos, es importante señalar, no es proporcional para todas las instituciones. Entre diferencias de matrículas, planes de estudio, políticas educativas y de recopilación de datos, la variedad de información que se recopila de las interacciones de sus comunidades educativas puede variar drásticamente entre ellas. No obstante, cantidad no se traduce en calidad, representando otro reto la política de curación de los datos que cada una pueda tener, y con ello, también la calidad del entrenamiento de los sistemas de IA que puedan generar.
La posesión de los datos educativos con el uso de inteligencia artificial enfrentará un dilema adicional, al considerar que se han promovido múltiples iniciativas con computación visual, donde sea para motivos de seguridad o evaluación de la experiencia en el aula, vulnera la privacidad de estudiantes, profesores, y otras personas. Para quién, finalmente, corresponde el decidir sobre qué hacer sobre sus datos personales es algo que ha llevado a las instituciones a ser mucho más transparentes sobre cómo se obtienen, almacenan, usan y eliminan sus datos, como es el caso del proyecto ViziBlue de la Universidad de Michigan.
Conclusiones
¿Qué sigue después de la inteligencia artificial?
Una constante que me llevó a generar este artículo es la idea de defender el rol humano de lo que significa ser un maestro. En el 2023, el reporte “An ed-tech tragedy? Educational technologies and school closures in the time of COVID-19” señala múltiples conclusiones valiosas, como la importancia de no brindar falsas promesas educativas con metodologías educativas no validadas (p. 424), la prioridad de generar códigos, regulaciones y legislaciones que pongan a los estudiantes en primer lugar (p. 453), y el anhelo de no olvidar que la educación debe orientarse a alcanzar objetivos enfocados a estudiantes, y no a la necesidad de reaccionar frente a cambios tecnológicos, recordando que la tecnología es un medio, no un fin.
Tomando en cuenta los hallazgos de este reporte, es previsible imaginar que la integración de la inteligencia artificial aún no es la apropiada para diferentes niveles de instituciones educativas que están comenzando a entender sus datos, y no poseen la madurez tecnológica necesaria para evaluar los beneficios y riesgos de brindar datos —entre ellos, datos sensibles de la identidad y actividades de los estudiantes— a modelos que no han sido validados, y cuyas decisiones no pueden ser parte de la inteligencia artificial explicable (xAI).
Como cierre, debo admitir que confío en que la inteligencia artificial tiene el potencial para ser de gran apoyo en la educación. Como lo ha imaginado Bloom (1984) hace varias décadas, el poder brindar a todo estudiante un tutor personalizado incrementa considerablemente su rendimiento para adquirir conocimientos y habilidades, una posibilidad que podría estar al alcance de muchos estudiantes en un futuro. No obstante, como señalamos en nuestro capítulo acerca de las posibilidades de la inteligencia artificial con la salud mental, es importante recordar que el surgimiento de tutores inteligentes deberá significar un apoyo para los profesores humanos, y no una sustitución de los mismos para quienes no puedan pagarlos.
Gerardo Castañeda Garza es Doctor en Innovación Educativa por el Tecnológico de Monterrey.
Actualmente, funge como Coordinador en Adquisición de Datos en el Living Lab & Data Hub del Instituto para el Futuro de la Educación del Tecnológico de Monterrey. Ha colaborado en proyectos interdisciplinarios internacionalmente, en áreas como educación, sostenibilidad y reducción de riesgos de desastres. Como profesor en humanidades digitales, busca promover el pensamiento ético y responsable acerca de las posibilidades de futuro en nuestra relación con la tecnología, repensando los fines de la vida ante nuevos escenarios.
Como voluntario, participa en la red internacional de investigadores TRANSFORM con el fin de promover la resiliencia en comunidades ante los efectos del cambio climático. Como persona, disfruta del té verde y de la comida india.
FUENTE: INSTITUTO PARA EL FUTURO DE LA EDUCACION