Inteligencia Artificial en la Educación: Potencial, Riesgos y Responsabilidad Ética
11 de marzo, 2025
Sobre el autor

La Dra. Nora Gavira Durón posee un doctorado en Ciencias Económicas con especialización en Finanzas por el Instituto Politécnico Nacional (IPN), donde se graduó con honores. Asimismo, es especialista en Gestión de Riesgos Financieros por la misma institución. La Dra. Gavira Durón ha obtenido una maestría en Mercadotecnia por la Universidad de las Américas Puebla (UDLAP), una maestría en Ingeniería de Sistemas por la Universidad Nacional Autónoma de México (UNAM) y una maestría en Finanzas por el Instituto de Estudios Universitarios de Puebla. Además, cuenta con una licenciatura en Actuaría por la UNAM. Miembro del Sistema Nacional de Investigadores Nivel I (SNI I).

Imagina un mundo donde un tutor virtual comprenda tu estilo de aprendizaje, adapte los ejercicios de acuerdo con tus fortalezas y debilidades, y además te de retroalimentación detallada en cuestión de segundos. Suena ideal, ¿verdad? Gracias a la inteligencia artificial (IA), esto ya es una realidad. Plataformas como ChatGPT y sistemas de tutoría adaptativa analizan las respuestas de los estudiantes, identifican sus dificultades y “crea” ejercicios personalizados; por ejemplo, si tienes problemas con ecuaciones diferenciales, la IA puede descomponer problemas complejos en pasos más sencillos, como lo haría un profesor dedicado a la academia y muy paciente.

Sin embargo, debemos preguntarnos si estamos delegando mucho de nuestro tarbajo y responsabilidad de trabajo o aprendizaje en las máquinas, herramientas como Grammarly o Moodle, integradas con IA, corrigen errores gramaticales y mejoran la coherencia en tiempo real. No obstante, si dejamos de reflexionar sobre nuestros propios errores, corremos el riesgo de transformar el aprendizaje en un proceso pasivo, en lugar de fomentar el pensamiento crítico y la autonomía intelectual.

Un caso preocupante ocurrió cuando el estudio de Castro-Martínez, et al. (2023), reveló que algunos sistemas de tutoría adaptativa priorizaban contenidos según estereotipos de género o raza, limitando oportunidades y marginando por género y grupos desfavorecidos. Aunado a lo anterior, no todos los estudiantes tienen acceso a internet de alta velocidad o dispositivos adecuados; lo que genera que mientras las universidades y estudiantes en países desarrollados experimentan con realidad virtual y chatbots avanzados, millones de estudiantes en zonas rurales carecen incluso de electricidad estable. Esto nos lleva a una cuestión clave ¿cómo evitar que la IA profundice las brechas educativas? La tecnología debe implementarse con responsabilidad para garantizar que amplíe oportunidades en lugar de restringirlas.

El potencial de la IA en la educación es enorme y sigue aumentando, pero su éxito dependerá del equilibrio entre el avance tecnológico y la responsabilidad ética de los usuarios; hoy en día existen tendencias innovadoras como las aulas inmersivas, que combinan IA con realidad virtual para explorar el cuerpo humano en 3D o recrear eventos históricos. También hay asistentes de docencia basados en IA que ayudan a diseñar planes de estudio inclusivos o detectar necesidades especiales en los estudiantes.

Sin embargo, debemos reflexionar que no se trata de sustituir a los docentes, sino potenciar sus capacidades; mientras que la IA puede realizar tareas automatizables, los profesores pueden enfocarse en debates, la creatividad de sus alumnos y el desarrollo del pensamiento crítico, áreas en las que la tecnología aún no puede competir con el ser humano.

Para poder lograrlo se necesita más transparencia, debemos analizar y reflexión sobre el uso y abuso de las nuevas tecnologías, cuestionarnos sobre cómo se entrenan los algoritmos, o qué datos utilizan. La UNESCO (2021), ha publicado directrices que destacan la importancia de que los estudiantes desarrollen una alfabetización en las nuevas tecnologías y análisis crítico, enfatizando no solo el uso de la inteligencia artificial, sino también la capacidad de cuestionar sus límites y sesgos.

Hoy en día, la IA no es neutral, su impacto dependerá de cómo la utilicemos, como estudiantes y ciudadanos, podemos adoptar un papel activo explorando nuevas herramientas con curiosidad, pero también con escepticismo. Hacernos preguntas como ¿quién diseñó este algoritmo? Y más aún ¿Qué intereses están detrás de su desarrollo?

Existen recursos gratuitos para analizar estos dilemas, como son "AI Ethics for Educators" (edX) o "Responsible AI" (Google), que permiten profundizar en la ética digital. También es posible contribuir a la equidad tecnológica apoyando iniciativas que lleven herramientas digitales a comunidades marginadas o promoviendo políticas de inclusión digital en las universidades.

La IA en la educación es como un bisturí, que en manos expertas puede generar avances significativos, pero que un mal uso puede ser catastrófico; como estudiantes universitarios, es un momento de hacer una pausa y decidir si utilizarán herramientas como ChatGPT solo para ahorrar tiempo o si asumirán un rol activo en la discusión sobre su integración ética, justa y sostenible en el aprendizaje.

Y lo que debemos reflexionar no es "¿qué puede hacer la IA por mí?", sino "¿qué tipo de educación queremos construir con ella?".
¿Tomarás un papel protagónico en este cambio o dejarás que otros decidan por ti?

Referencias
  1. Castro-Martínez, A., Torres-Martín, J. L. y Pérez-Ordóñez, C. de los Á. (2023). Los estereotipos de clase, género y raza reproducidos por la IA generativa: recomendaciones para los usuarios. Universidad Federal de Santa Catarina. Recuperado de https://hdl.handle.net/10630/36792

  2. UNESCO. (2021). Ciudadanía alfabetizada en medios e información: pensar críticamente, hacer clic sabiamente (2ª ed.). Recuperado de https://unesdoc.unesco.org/ark:/48223/pf0000385119