IA generativa en el aula: personalizar el aprendizaje… o “externalizar” el esfuerzo

*Por: Fernando Rodríguez-Borlado | Aceprensa|.
A finales de enero, la Organización para la Cooperación y el Desarrollo Económico (OCDE) publicó un extenso informe titulado: ‘Explorando los usos efectivos de la IA generativa en la educación’. Se trata de una revisión de la literatura científica que, desde distintas perspectivas, ha evaluado la utilización de esta tecnología; sobre todo desde 2022, a partir de la popularización de los grandes modelos lingüísticos (LLM, por sus siglas en inglés) como GhatGPT.
En estos años ya se han realizado numerosos experimentos reales en aulas de distintos países y niveles educativos –algunos con mayor valor científico que otros– y también ha dado tiempo para que algunos investigadores hayan tratado de recapitular sus conclusiones en varios metaanálisis. El estudio de la OCDE tiene, por un lado, un valor descriptivo: contar qué se ha hecho y cuáles han sido los resultados. Pero también persigue una finalidad que podríamos llamar normativa: ofrecer una guía de buenas y malas prácticas basada en la evidencia, aunque a lo largo de todo el informe se reitera la necesidad de seguir investigando sobre el tema, especialmente para poder valorar las consecuencias a largo plazo de la utilización de la IA generativa en las aulas.
El punto de partida del informe es una constatación: la IA generativa no es solo el futuro de la educación, sino que en buena medida es también el presente, pues un alto porcentaje de alumnos y profesores ya la utilizan. Según una encuesta internacional citada por los autores, más de la mitad de los estudiantes de secundaria de distintos países europeos usan con regularidad chatbots de IA. Entre 2024 y 2025 se han duplicado el número de usuarios, el de conversaciones diarias por usuario y la duración media de estas. Entre los docentes su utilización es igual de frecuente (incluso más entre los universitarios).
Altas expectativas y resultados prometedores
Según distintos expertos, la aplicación de la IA generativa a la educación podría suponer un importante salto en el que es quizás el principal objetivo y leitmotiv de la pedagogía moderna: la personalización del aprendizaje. En concreto, se espera que, gracias a esta tecnología, cada estudiante cuente con una especie de tutor particular que identifique sus lagunas y le ayude a subsanarlas; y todo mediante un proceso pensado específicamente para él, que tenga en cuenta toda una serie de parámetros cognitivos o de personalidad que la IA ha ido “aprendiendo” en sus interacciones con el estudiante. A su vez, los profesores podrían valerse de esa misma información para diseñar itinerarios académicos más realistas y efectivos, elaborar ejercicios o exámenes que produzcan un “aprendizaje significativo” y proporcionar a cada estudiante el feedback que necesita.
Estos planteamientos están en la línea de la pedagogía constructivista, según la cual el alumno elabora su propio aprendizaje a base de conectar la nueva información que recibe con sus experiencias previas. El informe de la OCDE menciona varias veces, a este respecto, la teoría de las “zonas de desarrollo próximo”, enunciada por el psicólogo constructivista Lev Vigotsky. Estas zonas señalan la distancia –habitualmente pequeña– entre las habilidades o conocimientos que el alumno ya ha adquirido y las que podría adquirir con la ayuda del profesor en el futuro inmediato; la tarea de este sería crear el “andamiaje” (contexto, terminología, incentivos y, sobre todo, habilidades cognitivas superiores) para que el estudiante recorra esa distancia.
Algunos análisis muestran que el uso de herramientas de IA generativa en el aula puede mejorar el proceso de aprendizaje
Aunque los autores del informe de la OCDE, y los de otros citados por este, insisten en que la IA generativa no está llamada a sustituir a los profesores, lo cierto es que cuando se describe su horizonte de uso ideal –facilitar al estudiante un feedback en forma de aclaraciones teóricas, ejercicios, correcciones, pero también preguntas “retadoras”–, no es difícil imaginar esa posible sustitución, o al menos una reducción significativa del papel del docente.
En la literatura científica se suele descartar esta perspectiva recordando que siempre será necesario que un ser humano dirija el proceso de aprendizaje, o que las máquinas nunca serán aptas para ocuparse de los aspectos emocionales de la enseñanza. Y es cierto que, al menos por ahora, en los experimentos en que se ha pedido a estudiantes que valoren el feedback ofrecido por un profesor de carne y hueso y el de una IA generativa, estos han señalado que, aunque la calidad objetiva de unas y otras observaciones era similar, las de los humanos les resultaron más útiles y motivantes.
Pero es precisamente esta capacidad de adaptarse al contexto particular de cada alumno (a su nivel de conocimientos y habilidades, pero también a sus necesidades emocionales a través de una interacción lo más “humana” posible) lo que la IA generativa puede aportar respecto a las anteriores herramientas educativas “inteligentes”.
De hecho, algunos experimentos ya han demostrado que el uso de IA generativa, y en concreto de “tutores” guiados por LLMs, puede mejorar la cantidad y la calidad del aprendizaje. En algunos casos, el grupo de control estaba formado por alumnos sin ninguna ayuda tecnológica; en otros, utilizaban buscadores tradicionales como Google. Dos metaanálisis, realizados por investigadores de universidades turcas y canadienses, respectivamente, concluían que estos tutores inteligentes producen un incremento significativo en los resultados, y son especialmente útiles en las etapas obligatorias de la educación, quizás por la mayor apertura de las generaciones más jóvenes al uso de estas herramientas. Otros estudios han señalado que los alumnos que más mejoran son los que, previamente al experimento, recibían clase de profesores con poca experiencia o mal valorados por sus estudiantes.
Los temores, también avalados por la investigación
No obstante, también hay estudios menos halagüeños con el uso de IA generativa en las aulas. Algunos, por ejemplo, no hallan una mejoría significativa con respecto a la instrucción tradicional, ni siquiera cuando se usan herramientas pensadas específicamente para el ámbito educativo y que han sido “entrenadas” con una importante base de teoría pedagógica.
La “pereza metacognitiva” se produce cuando el alumno se acostumbra a externalizar el esfuerzo mental y descargarlo en la herramienta de IA
Este es el caso de Khanmigo, un “tutor” artificial basado en IA generativa y creado por la Khan Academy, probablemente la academia virtual más grande y popular del mundo (tiene cerca de 60 millones de alumnos registrados en todo el mundo, y en 2019 recibió el Premio Princesa de Asturias de Cooperación Internacional). Un análisis publicado en noviembre del año pasado señalaba que, al comparar el desempeño de tres grupos de estudiantes universitarios en un programa de física, unos con la ayuda de Khanmigo, otros con acceso al motor de búsqueda de Google y otros solo con “papel y boli”, no se percibieron diferencias significativas en los resultados.
Lo cierto es que el diseño de Khanmigo está pensado para evitar los riesgos más típicos de los LLM, y en cambio exprimir todo su potencial positivo. ¿Y cuáles son esos riesgos? Principalmente, los que se conoce como “pereza metacognitiva” y “espejismo de conocimiento”. Ambos están relacionados. Se produce un “espejismo de conocimiento” cuando el alumno, ayudado por la IA, obtiene buenos resultados sin que en realidad haya un incremento de sus capacidades cognitivas. Sucede esto en casos en que se ha pedido a la herramienta tecnológica que proporcione directamente los resultados del ejercicio o problema, sustituyendo el trabajo mental que debería haber hecho el estudiante. Cuando esto se hace habitualmente, se genera una “pereza cognitiva” en el alumno que progresivamente le va incapacitando para esos esfuerzos.
El informe de la OCDE, que también recoge algunas encuestas a profesores, señala que estos perciben estos fenómenos como una amenaza real (incluso explican que no es infrecuente que los alumnos que utilizan de este modo la IA acaben considerando como propio el contenido que ha generado el LLM).
Además de estas impresiones de los docentes, el estudio informa de algunos experimentos que demuestran los efectos de la “pereza cognitiva”. Por ejemplo, en uno llevado a cabo en Turquía se proponía a los estudiantes unos problemas matemáticos, que algunos podían resolver con ayuda de un chatbot de uso general (tipo ChatGPT), otros con chatbots específicamente diseñados para que no proporcionaran respuestas directas sino solo “pequeños empujones cognitivos”, y otros por los medios tradicionales. Los resultados de los que pudieron emplear herramientas tecnológicas fueron mejores que los de los “analógicos” en un primer momento, pero cuando tiempo después se les presentó una prueba “de libros cerrados” (es decir, sin ayudas de ningún tipo), los que se habían apoyado en chatbots generales sacaron peores notas que los otros dos grupos, entre los que no había diferencias significativas.
En otro experimento, esta vez con estudiantes estadounidenses, los que emplearon un LLM para escribir un breve ensayo eran capaces de recordar muchos menos detalles sobre él un tiempo después de entregarlos, que los que se habían valido únicamente de su inventiva. Las imágenes cerebrales de unos y otros corroboraron que los primeros habían desarrollado mucha menos actividad neuronal que los segundos.
Un “chatbot” con Sócrates
Estas y otras investigaciones parecen mostrar un patrón preocupante: el uso de IA generativa, cuando no ha sido configurada para fomentar el esfuerzo cognitivo, puede provocar que el proceso de aprendizaje se asemeje a una corriente de agua que circula por encima de piedras, sin apenas dejar huella en el “hardware” del cerebro.
Para evitarlo, el informe de la OCDE recomienda que las herramientas de IA generativa que realmente quieran mejorar el aprendizaje empleen el método socrático; es decir, conduzcan al alumno, a través de preguntas que pueda contestar dentro de su “zona de desarrollo próximo”, hasta que él mismo pueda llegar a la solución. Estas preguntas pueden versar sobre el contenido de la lección o sobre el propio proceso de razonamiento, de manera que fomenten la metacognición.
Khanmigo utiliza este esquema. Sin embargo, como confesaba en una entrevista una de las personas encargadas de su desarrollo en la khan Academy, al revisar las conversaciones que los usuarios habían mantenido con el chatbot veían con frecuencia –y con decepción– que estos contestaban con desidia (“Y yo qué sé, tío”) a las preguntas socráticas del avatar digital. “En algunos casos, también vemos que los estudiantes no tienen realmente las habilidades para reconocer qué saben, en qué necesitan apoyo y cómo redactar buenas preguntas para afrontar sus debilidades”. Esto apunta a otra necesaria precaución con el uso de la IA en el aula: para que produzca efectos positivos necesita de un alumno motivado y disciplinado. Por desgracia, otro estudio apunta a que son precisamente los de perfil contrario los que más la están utilizando.
Por otro lado, e incluso si el estudiante está dispuesto a “portarse bien”, existe el riesgo de las llamadas “alucinaciones”: la tendencia, más acusada en algunas herramientas de IA que en otras, a inventar soluciones falsas que sin embargo son presentadas por el chatbot con apariencia de certeza y coherencia, y que son resultado de un diseño pensado para satisfacer más que para ilustrar.
Por último, hay que tener en cuenta que el uso de IA, ya sea de propósito general o configurada para la enseñanza, implica pasar tiempo ante una pantalla, lo que tiene sus propios riesgos.
Todos estos “peros” recomiendan ser prudentes. Las posibilidades que ofrece la IA, sobre todo en el terreno de la personalización del aprendizaje, son verdaderamente prometedoras, pero, dado su potencial dañino y los efectos adversos ya observados, quizás compense asegurarse primero de que los “sócrates digitales” son fiables, y de que los alumnos están preparados para mantener un diálogo provechoso con ellos.
Fuente Disminuir
Fuente




