Universidad Nacional del Nordeste

09/12/2025 | Press release | Distributed by Public on 09/12/2025 07:30

Entre espejos y oráculos: la advertencia de una investigadora sobre la IA en educación

[Link]La especialista Valeria Odetti advirtió sobre los riesgos de adoptar acríticamente herramientas que reproducen modelos pedagógicos ajenos a nuestra tradición educativa. (Foto: Natacha Espinoza)

En la apertura del Tercer Congreso de Educación y Tecnología del Mercosur, la coordinadora del Programa de Educación a Distancia de FLACSO Argentina desmontó las promesas vacías de la inteligencia artificial en educación. Desde los «imaginarios sociotecnológicos» hasta el «sesgo pedagógico», Valeria Odetti propuso cinco claves para integrar la IA sin perder el rumbo formativo en un país atravesado por la desigualdad.

Cuando Valeria Odetti subió al estrado para dar su conferencia «Entre espejos y oráculos: enseñar en tiempos de IA», confesó algo inesperado: la primera vez que usó inteligencia artificial sintió decepción. «Yo me imaginé que iba a poder realmente sustituirme y yo me iba a poder ir de vacaciones, pero eso no pasó.»

Esa anécdota personal fue el punto de partida para una reflexión profunda sobre cómo la inteligencia artificial «llegó como un tanque» al mundo educativo, cargada de promesas que suenan más a profecías que a realidades contrastadas.

Valeria Odetti, es coordinadora del Programa de Educación a Distancia (PED), FLACSO Argentina; es asesora de educación en línea e investigadora en temáticas vinculadas a inteligencia artificial y docente en la Licenciatura en enseñanza con tecnologías digitales . Invitada a brindar la Conferencia de Apertura del 3er Congreso de Educación y Tecnología del Mercosur que se realizó en la UNNE, no vino precisamente a celebrar el futuro digital, sino a cuestionar los relatos que lo rodean.

El primer dardo de Odetti apuntó a lo que definió como imaginarios sociotecnológicos: esos discursos que «se instalan con fuerza de verdad» pero que no surgen de consensos científicos ni sociales, sino que «aparecen y son una verdad indiscutible.»

Para ilustrarlo, recordó el caso de los «nativos digitales», un concepto que persiste en el imaginario educativo.» Más cerca en el tiempo, citó la frase que definió la pandemia: «esto llegó para quedarse», refiriéndose a la educación virtual.

«Si lo miramos ahora, 5 años después, ¿qué quedó de lo que llegó para quedarse?», preguntó retóricamente. «Sí, claro, quedó la desigualdad, quedó la evidencia de que era muy difícil construir eso, quedó la enorme dificultad de pensar la bimodalidad porque no es tan fácil como poner computadoras y a partir de eso, enseñar.»

Odetti dirigió su crítica hacia dos pilares del discurso pro-IA en educación. El primero: la personalización del aprendizaje. Según las propias herramientas de IA, esto significa «la posibilidad de que algoritmos inteligentes adapten contenido y ritmos a las necesidades de cada estudiante.»

«¿Cómo construimos lo común, si lo que nos va a importar es la personalización?», cuestionó la investigadora. «Porque en esa tensión entre individuo y sociedad, la posibilidad de construir lo común es resignar algo de lo individual, no hay otra manera.»

La educación básica busca «construir la sociedad», mientras que la universidad forma «identidades profesionales que son colectivas, no individuales.» La personalización, llevada al extremo, podría fragmentar esos objetivos comunitarios.

El segundo pilar que desarmó fue el análisis predictivo y la toma de decisiones. Las IA prometen «predecir el ritmo de abandono escolar, sugerir intervenciones tempranas» mediante el procesamiento de «grandes volúmenes de datos.»

Odetti apeló a la experiencia docente: «¿Es tan fácil predecir la trayectoria de un estudiante? ¿Cuántas veces vimos un estudiante en los primeros años y dijimos, no va a funcionar, y nos lo encontramos dos años después con otros potenciales y predisposición, ¿cómo cambió?»

No rechazó por completo estas herramientas, pero enfatizó que «quien alimenta esas posibilidades de predecir algo tiene que ser una persona tomando decisiones humanas y no con inteligencia artificial.»

Uno de los conceptos centrales analizados en la conferencia es el de sesgo pedagógico. Odetti planteó que «los algoritmos estaban entrenados con modelos pedagógicos que no necesariamente eran los modelos pedagógicos imperantes de este lado del mundo.»

Mientras que en Argentina y la región existe «una gran tradición de pedagogías constructivistas, de modelos socioculturales,» la IA reproduce enfoques donde «el aprendizaje es la eficiencia, la memorización, donde la personalización tiene que ver con segmentar el conocimiento.»

Para ejemplificar, mostró cómo un algoritmo definía la creatividad «por cantidad de adjetivos usados.» «Entonces los barrocos eran los más creativos del mundo, porque a todos les ponían un montón de adjetivos,» ironizó.

La metáfora del gato de Cheshire, de Alicia en el País de las Maravillas, le sirvió para explicar el problema: «La inteligencia artificial nos devuelve una imagen que está bien, que es correcta, pero que está vacía de sentido.» Como la sonrisa sin gato: la forma está, pero el contenido pedagógico se ha evaporado.

Ante este panorama, Odetti propuso cinco dimensiones para integrar la IA sin caer en sus trampas:

  1. Llave ética: No es una decisión individual. Requiere «marcos normativos» institucionales, transparencia en el uso («cuando la uso tengo que decir que la usé») y regulación clara sobre qué significa usar IA en contextos educativos.
  2. Llave epistemológica: «Si cada vez que usamos la inteligencia artificial la estamos entrenando,» tenemos la responsabilidad de señalarle sus errores metodológicos y pedagógicos, de «proponerle otro marco para trabajar.»
  3. Llave pedagógica: La pregunta fundamental: «¿Por qué enseñamos? ¿Qué quiero que esa actividad que voy a diseñar diga sobre la enseñanza y el aprendizaje?»
  4. Llave cognitiva: Pensar antes de interactuar con la IA. Como hace con sus estudiantes de diseño, obligándolos a crear primero en papel: «las decisiones no las marca la herramienta, las marca la persona que está diseñando.»
  5. Llave política: El elefante en la habitación: el costo. «Para ser buenos a estas aplicaciones necesitamos unas licencias pagas» que cuestan «más de 200 dólares cada una al año.» En un país desigual como Argentina, esto plantea serias cuestiones de equidad.

Odetti cerró su conferencia con esta idea » No se trata de rechazar la tecnología, sino de recuperar la capacidad de decisión pedagógica ante las promesas de los nuevos oráculos digitales.

Universidad Nacional del Nordeste published this content on September 12, 2025, and is solely responsible for the information contained herein. Distributed via Public Technologies (PUBT), unedited and unaltered, on September 12, 2025 at 13:30 UTC. If you believe the information included in the content is inaccurate or outdated and requires editing or removal, please contact us at [email protected]