Dr. Martin Larsson, la Facultad de Antropología, UDLAP.
En las discusiones públicas –incluso cuando participan expertos en el tema, como Max Tegmark (2017)– la inteligencia artificial (IA) suele presentarse de manera paradójica. Por un lado, es vista con temor, como una entidad capaz de superar y subyugar a la humanidad. Por otro lado, se le atribuyen características casi utópicas, como un salvador de nuestros propios errores y limitaciones. En ambas versiones, la IA es representada como algo completamente diferente a lo humano: como un Otro digital.
En la antropología, el concepto del Otro ha sido fundamental para describir cómo se crea un dualismo problemático entre el ‘salvaje’ y el ‘hombre civilizado’, pero también entre el ‘noble salvaje’ y las personas que pertenecen a una ‘civilización decadente’. Si este tipo de dicotomías han perdido fuerza en la actualidad, lo que vemos ahora es entonces cómo surge un fenómeno parecido en torno a la IA. Pero en vez de un ‘salvaje’, el Otro digital se proyecta como un ser supremo, que subraya la torpeza humana.
Pero, ¿qué sucede si nos acercamos a la IA desde una perspectiva más empírica? ¿Cómo se dan las interacciones con la IA? ¿Quiénes la emplean, y de qué manera? ¿Con qué propósito? Y, a fin de cuentas, ¿se sostiene la imagen de una entidad sobrehumana que aparece en las discusiones públicas?
Una disciplina que nos puede arrojar luz sobre estas preguntas es la antropología, con su interés en personas de carne y hueso en su cotidianeidad, en diversos lugares del mundo. Podemos, por ejemplo, destacar un estudio de Gabriele de Seta (2022) –que presentó en la UDLAP en su momento– que destaca cómo los regímenes dictatoriales podrían utilizar la AI para de vigilar a su población. De Seta se interesó, entre otro, por un programa que se emplea en los cruces peatonales, en ciertas partes de China. Si un individuo cruza la calle cuando no debe, se proyecta una foto de la persona en una pantalla en el cruce, señalando que cometió una infracción. Con la tecnología de reconocimiento facial, esto podría utilizarse en el futuro para multar a las personas que cometen una infracción de este tipo. Según De Seta, en ese momento, el gobierno chino también estaba trabajando en un sistema crediticio, donde se podría conectar la información recabada en diversos puntos de la ciudad a un registro general que las autoridades podrían consultar en cualquier encuentro con un individuo.
Aparte de posibles errores técnicos, que podrían ligar a una persona a un acto que no haya realizado, este tipo de sistemas también presentan un problema común en la IA: su dificultad por percibir aspectos contextuales. No sabremos nada sobre la motivación o la intención del individuo que cruza la calle cuando no debe, ni tampoco hace una diferencia entre quienes cruzan cuando no hay ningún carro cercano, o cuando pasa justo enfrente del individuo.
Esta falta de contextualización es algo que también ha subrayado Diane Forsythe (1993), en una investigación sobre programadores en EEUU, donde se interesó por su comprensión del término ‘trabajo’. Para estos programadores, el ‘trabajo’ significaba resolver un problema particular de manera técnica, sin considerar el contexto del caso específico que podría influir en el éxito de la intervención. Esto, argumentó Forsythe, era llamativo, dado que los mismos programadores consideraban que su trabajo simplemente consistía en ‘programar’, cuando, en realidad, el tiempo que dedicaban a la programación correspondía a una minoría del tiempo de sus días laborales. Durante el resto del día estaban en reuniones, daban clases, etcétera –actividades que tenían un impacto directo en su programación.
Como han señalado Graham Jones, Shai Satran y Raluca Creangă (2023), esta comprensión técnica del trabajo ha perdurado hasta nuestros días. En un estudio sobre el uso cotidiano de chatbots en Romania describen cómo los diseñadores de Microsoft pensaban que los futuros usuarios de su chatbot lo emplearían para encontrar información. Si bien es cierto que los usuarios efectivamente hayan utilizado su bot de esa manera, también resultó ser común que se les hicieran preguntas que no tenían respuestas tan técnicas. Por ejemplo, les preguntaban sobre el significado de la muerte, y buscaban saber más sobre el bot mismo, indagando sobre su color favorito, etcétera. Así mismo, los usuarios jugaban de diversas maneras con los bots, probando su capacidad de comprender chistes y de participar en duelos verbales. Lo que argumentan Jones, Satran y Creangă a partir de esto, es que, a través de los diferentes tipos de interacciones que los usuarios tenían con los bots, poco a poco, se integraban tanto en las tareas del hogar como en sus relaciones interpersonales.
Al mismo tiempo, cuando los mismos antropólogos quieren destacar las posibilidades de la IA, lo que se subraya es en realidad su funcionamiento técnico. Matt Artz (2023), por ejemplo, señala una serie de ventajas de la IA, que harían que, en un futuro no demasiado lejano, formaría parte de todos los pasos del trabajo antropológico, desde la búsqueda de artículos relevantes, que te mejoraría las observaciones durante la investigación, hasta el análisis, la formulación de propuestas, la escritura de reportes, etcétera.
Desde la perspectiva antropológica, la IA, en breve, no puede ser vista simplemente como un Otro liberador o destructor. Lo que vemos surgir en los estudios empíricos de la IA es más bien un artefacto cultural que puede fungir como un colaborador en cualquier empresa humana –ya sea en procesos creativos, en la intimidad familiar, o incluso como herramienta de control totalitario. Si algo nos debería de dar esperanza, pero también miedo, no es entonces su diferencia radical con los seres humanos, sino su profunda humanidad.
Este texto se escribió en diálogo con ChatGPT, para mejorar la estructura y la redacción, y con Mariel Cameras Myers, para –además de lo anterior– fortalecer el argumento principal.
Artz, Matt. 2023. “Ten Predictions for AI and the Future of Anthropology”, Anthropology News, https://www.anthropology-news.org/articles/ten-predictions-for-ai-and-the-future-of-anthropology/
Forsythe, Diana E. 1993. “The Construction of Work in Artificial Intelligence”, Science, Technology, & Human Values, Vol. 18, No. 4, pp. 460-479, https://www.jstor.org/stable/690004
Jones, Graham, Shai Satran, and Raluca Creangă. 2023. “The Magic of Conversational Automata”, Anthropology News, https://www.anthropology-news.org/articles/the-magic-of-conversational-automata/
de Seta, Gabriele. 2022. “Machine Vision in Chinese Everyday Life”, Canal de YouTube de la Facultad de Antropología de la UDLAP, https://www.youtube.com/watch?v=lOSxbcUmtv8&t=9s
Tegmark, Max. 2017. Life 3.0: Being Human in the Age of Artificial Intelligence. Nueva York: Alfred A. Knopf