04/23/2026 | News release | Distributed by Public on 04/23/2026 12:33
Fernando Mora Dávila, académico del Tec Guadalajara, colaboró con la Arizona State University (ASU), como profesor visitante en el Lincoln Center for Applied Ethics, donde presentó su investigación sobre el impacto de la inteligencia artificial en la experiencia humana y los marcos éticos que la rodean.
Su participación incluyó una conferencia basada en el pensamiento del filósofo Martín Heidegger y el concepto de datificación, con el objetivo de reflexionar sobre cómo los datos y la inteligencia artificial (IA) reconfiguran la experiencia humana.
Se trata de "utilizar la tecnología de manera crítica con criterios éticos", ya que, afirmó, el uso de ésta moldea a partir de patrones que tienden a la uniformidad.
Ese es el enfoque central de la investigación del director centro-occidente del departamento de estudios humanísticos de la Escuela de Humanidades y Educación (EHE) del Tec.
"No se trata de no utilizar la tecnología, porque sería algo muy inocente, sino de utilizarla de manera crítica", agregó. "La intención fue generar una reflexión sobre cómo los datos y la IA reducen la experiencia humana a cuestiones cuantificables", detalló el investigador.
Fernando Mora con académicas de ASU. Foto: cortesía Fernando Mora.La colaboración fue posible gracias a Faculty Movility, una iniciativa del Tec que apoya a profesores con vínculos con universidades o centros de investigación internacionales, para impulsar labores de divulgación y nexos académicos.
Como parte de la investigación, Mora colaboró de la mano de un grupo de trabajo de ASU enfocado en el desarrollo de modelos de IA y machine learning basados en esquemas de cooperación humana.
Mora Dávila, quien actualmente cursa a su vez una maestría en ASU, aprovechó ese vínculo institucional para formalizar su estancia y fortalecer la relación entre ambas universidades.
"Cuando la experiencia humana se reduce a datos, se vuelve predecible y homogénea, con poco espacio para la creatividad, la disrupción y la imaginación".
El académico explicó que a diferencia de sistemas como ChatGPT o Gemini, orientados a dar la razón al usuario, el modelo que desarrolla este equipo tiene como objetivo aprender patrones de interacción como:
"Lo que buscamos es un modelo que no esté bajo ese propósito, sino que sea capaz de aprender modelos de cooperación", precisó Mora.
También, aseguró que este modelo cuestiona el diseño predominante en la industria tecnológica y plantea una IA que priorice la calidad del vínculo entre el sistema y el usuario por encima de la validación constante.
Otro eje de su investigación examina el desarrollo tecnológico desde una perspectiva crítica. Especificó que la orientación de la industria hacia la ganancia económica y otros intereses condiciona el tipo de tecnología que domina a nivel global.
Mora Dávila sostuvo conversaciones con académicos del área en ASU, entre ellos la profesora Sarah Florini, quien subraya la necesidad de que emerjan propuestas tecnológicas desde otras regiones del mundo para diversificar las perspectivas en el desarrollo de la IA.
Según Mora Dávila, Florini subraya que debería haber más propuestas y surgimiento de tecnologías desde otras partes del mundo para tener una perspectiva diferente.
El investigador señaló que este aspecto apunta a una de las tensiones centrales del campo: la tecnología de uso masivo responde principalmente a lógicas comerciales y geopolíticas, no necesariamente a criterios éticos o humanos.
Por ello, para él, esa ausencia de diversidad tecnológica no es un problema técnico, sino ético.
Su colaboración fue en particular con el Lincoln Center for Applied Ethics. Foto: cortesía Fernando Mora.La conferencia en ASU partió de la siguiente premisa: "cuando la experiencia humana se reduce a datos, se vuelve predecible y homogénea, con poco espacio para la creatividad, la disrupción y la imaginación", aclaró.
Para el académico, ese es precisamente el riesgo que su investigación busca visibilizar: que los algoritmos y los sistemas de inteligencia artificial no solo organizan la vida de las personas, sino que la moldean a partir de patrones que tienden a la uniformidad.
Esa perspectiva guía tanto su investigación como su clase de ética en IA: dotar a estudiantes de herramientas para incorporar la tecnología a su vida y su profesión sin perder una mirada crítica sobre ella.
Es también el enfoque que, desde el departamento de estudios humanísticos de la EHE, se busca consolidar a través de lo que llaman humanidades digitales: una apropiación consciente de la tecnología que no renuncie a la dimensión humana.
Instalaciones de ASU. Foto: cortesía Fernando Mora.Finalmente, el investigador resaltó la importancia de establecer una colaboración formal entre el Tec y Arizona State University a partir de los vínculos académicos construidos durante su estancia.
Entre los objetivos figuran el desarrollo de investigaciones conjuntas y la publicación de artículos académicos, con base en los puntos identificados entre ambas instituciones en torno a la ética y la IA.
Finalmente, resaltó que un elemento que llamó la atención de los académicos de ASU fue el enfoque estratégico del Tec en torno a la tecnología.
"Es muestra de que tenemos una mirada crítica hacia la tecnología; pero también la capacidad deincorporar herramientas como programación, minería de datos e inteligencia artificial", concluyó.
LEE TAMBIÉN:
LEE TAMBIÉN: