¿Cómo regular la Inteligencia Artificial en México?
18 de junio, 2024
Sobre el autor

Doctor en Derecho por la Universidad de Edimburgo. Maestro en Gobernanza y Globalización. Maestro en Estudios Antropológicos de México y Licenciado en Derecho por la Universidad de las Américas Puebla (UDLAP). Es profesor/investigador de tiempo completo en el Departamento de Derecho de la UDLAP, así como Director de Investigación y Posgrado en la misma institución.
Sus actividades de investigación se centran en la naturaleza jurídica del dinero, los riesgos operacionales en las infraestructuras comerciales y financieras, historia económica, propiedad intelectual y los desafíos que presenta el desarrollo y despliegue de la IA. Es miembro de la línea de investigación sobre Propiedad Intelectual del Instituto de Investigaciones Jurídicas de la UNAM, de la Central Bank Research Association, co-fundador de la Scottish Law and Innovation Network (SCOTLIN), y miembro del Sistema Nacional de Investigadoras e Investigadores (Candidato).

Los procesos de evolutivos que involucran a la gobernanza de las cadenas globales de valor que dan forma al entramado tecnológico que constituye a la economía de Big Data, son complejos y su velocidad puede contrastar con la rapidez que define a las soluciones que ofertan. Dicho lo anterior, uno no puede esperar entender la complejidad de un solo desarrollo en su totalidad, y, menos, se puede argumentar que es posible diseñar un andamiaje jurídico por imitación o siguiendo viejas fórmulas para atender las imperfecciones que tecnologías como la Inteligencia Artificial (IA) introducen. Por un lado, uno no debe temer a las visiones futuristas a las cuales dicha tecnología es asociada por las mentes más entusiastas. ¿Es una herramienta útil? Ciertamente lo es; sin embargo, su desarrollo y despliegue no representan una amenaza inmediata que debe ser regulada o prohibida como se plantea en algunas películas de finales del siglo pasado. Por otra parte, estamos ante un desarrollo que introduce sus propias imperfecciones de mercado como en su momento lo hizo el Internet, lo cual debe llevarnos a preguntarnos: ¿cuál es la estrategia que debemos seguir para hacer frente a las innovaciones que la mente humana presenta para dar respuesta a las necesidades de una sociedad digital?

En primer lugar, uno debe destacar que cuando hablamos de IA no hacemos referencia a un solo conjunto de técnicas sino a un universo creciente de soluciones que van desde árboles de decisiones hasta sistemas de aprendizaje de máquina como DORA (Discovery Of Relations by Analogy), que incluye a agentes completos e incompletos. Además, hay que agregar que dicha diversidad es interoperable con otras innovaciones como son el cómputo en la nube, los dispositivos móviles, los registros distribuidos, entre otras. Lo anterior significa que tenemos un ecosistema de infraestructuras tangibles e intangibles distribuidas alrededor del mundo creadas para soportar soluciones concretas que tal vez van a crear efectos en una sola jurisdicción. Dicho lo anterior, todo esfuerzo regulatorio debe partir de una definición lo suficientemente amplia que permita entender a todo sistema de IA como un sistema dinámico capaz de presentar predicciones, recomendaciones, análisis, entre otras acciones centradas en las necesidades del ser humano como se puede colegir de esfuerzos como el verificable en la legislación europea en la materia e incluso en la ciencia ficción como se aprecia en las famosas 3 leyes de la robótica de Asimov.

Una vez que se ha entendido lo anterior, debemos pasar a la siguiente pregunta: ¿necesitamos una ley para regular en concreto a la IA? Para dar respuesta a este cuestionamiento debemos analizar primero si no contamos con instrumentos normativos vigentes que nos permitan presentar soluciones a los desafíos que la IA plantea. Por ejemplo, en la industria automotriz y del desarrollo de robots de asistencia quirúrgica podemos apreciar cómo se toman los principios incorporados en la ISO y la Norma Oficial Mexicana aplicables a la seguridad para robots industriales. Este ejercicio es muy necesario, sobre todo cuando damos lectura a algunos esfuerzos de gobernanza y legislativos que buscan tener más protagonismo político que proveer soluciones sencillas. En ellos, es posible ver llamados a la redacción de una Ley para regular la IA que terminan siendo propuestas para leyes en materia de ciberseguridad. En foros he tenido la oportunidad de escuchar a actores importantes en el desarrollo de política pública preguntando qué debemos hacer para limitar los riesgos que puede plantear la difusión de las aplicaciones basadas en IA y recibiendo respuestas que se desvían completamente hacia otras agendas como es el desarrollo y regulación de “criptoactivos”. Asimismo, también me he topado con voces importantes que buscan desarrollar y presentar propuestas que cuando deseas entrar al ámbito del funcionamiento operacional te proveen respuestas como “desconozco la tecnología, no toques ese tema.” Si no entendemos cómo funciona la tecnología cómo pretendemos regularla.

Con esto en mente, me gustaría hacer una primera exhortación a mis lectores -como lo hago con mis estudiantes- que no se debe temer a la complejidad que define a muchas de las tecnologías que nos rodean. Probablemente, a la mayoría de nosotros nos resultaría extremadamente difícil -si no imposible- entrenar un sistema inteligente sin la debida capacitación provista en las escuelas de ingeniería; sin embargo, muchas de las descripciones tecnológicas que nos son útiles como sociedad para hacer propuestas y participar activamente en entornos públicos y privados no se encuentran en los libros de ingeniería sino en documentos normativos como la Ley Federal de Protección de Datos Personales en Posesión de los Particulares (LFPDPPP), el Código de Comercio, la Ley Federal del Derecho de Autor (LFDA), la Circular Única de Bancos, entre muchas otras más. La lectura detenida de dichos instrumentos junto con el entendimiento relativo al funcionamiento de ciertas tecnologías como la IA hacen evidente que cada uno de ellos es útil para atender diversos problemas que muchos desean responder sobre regulando de forma visceral. En dichos ordenamientos, vamos a encontrar los elementos que configuran a una arquitectura de von Neumann como se puede apreciar en los artículos 101, 102 y 107 de la LFDA que describen los elementos operacionales básicos de la referida arquitectura como son el software y las bases de datos. También, si leemos con detenimiento la LFPDPPP vamos a encontrarnos con términos que fueron incorporados del mundo de la informática como es el tratamiento y que incluye los elementos que definen a los sistemas dinámicos que nos ocupan como es el almacenamiento de información. Bajo el principio de neutralidad tecnológica, lo anterior nos debería permitir extrapolar principios y ordenamientos vigentes a los desafíos planteados por el desarrollo y difusión de sistemas inteligentes.

Ahora, habrá quien argumente que la IA introduce problemas novedosos que requieren atención particular derivado de su transversalidad. Ciertamente, uno no puede descartar lo anterior, sobre todo si se ha dado respuesta a las preguntas arriba planteadas. Sin embargo, ¿una legislación para regular la IA es necesaria? Por ahora, considero que la respuesta debe ser negativa. Entonces, ¿cuál es la mejor forma de proceder? La respuesta se puede desarrollar en dos frentes. Primero, dadas las necesidades de industrias concretas, se pueden modificar o adicionar nuevos elementos normativos a las leyes existentes para complementar y ajustar dichos instrumentos al espíritu de los tiempos. Doy tres ejemplos. En primer lugar, dado el potencial creativo de los nuevos sistemas de IA Generativa, se pueden adicionar supuestos en donde si bien no se puede asignar plena autoría a un sistema naturoide, si se le puede “etiquetar” con el elemento nominativo de “creador” independientemente de que el remanente de los derechos morales y patrimoniales puedan ser ejercidos por personas físicas. Asimismo, siguiendo algunos otros argumentos, si el elemento moral que define a la autoría llegase a desaparecer, se podría complementar el capitulado relativo al dominio público para establecer que ciertas obras creadas con IA pudiesen entrar a dicho dominio. Por supuesto, también se podría ajustar el concepto de obra por encargo que ya incorpora ciertas prerrogativas a favor de personas morales, como se aprecia en el artículo 183 de la LFDA.

Una industria que históricamente se ha beneficiado del desarrollo y despliegue de sistemas automatizados es la banca comercial. La banca, por su naturaleza sistémica, ha incorporado, bajo el sistema que emerge de los Acuerdos de Basilea un modelo de administración de riesgos que incluye un apartado para el riesgo operacional asociado a las fallas humanas e infraestructurales, lo cual tiene un impacto directo en la constitución de su capital regulatorio. Es decir, si un banco decide incluir una solución tecnológica que deriva en pérdidas, dicha institución deberá separar más liquidez hacia su capital siguiendo una fórmula que podemos encontrar en Basilea III y en la Circular Única de Bancos. Ahora, dada la relevancia de la IA para el sector y sus crecientes interconexiones, que incluyen las cadenas de desarrollo y suministro de la solución podríamos ver el surgimiento de requerimientos regulatorios complementarios como puede ser una certificación regulatoria para implementadores quienes son los que venden las soluciones a los bancos, además de que -construyendo sobre los principios de resiliencia operacional introducidos en 2021 por el Bank for International Settlements- se pudiesen incorporar mayores requerimientos de capital asociados a la complejidad de las interconexiones e interdependencias que soportan a la solución elegida, lo anterior derivado de sus implicaciones de carácter sistémico. Por supuesto esto no sería discrecional y tal vez se desprendería de pruebas de explicabilidad que debiesen ser acreditadas por los bancos.

En tercer lugar, en materia de protección de datos de carácter personal se podría argumentar que algunos datos personales como son la voz y la imagen de una persona física determinada o determinable pudiesen ser considerados datos personales sensibles en el marco del tratamiento de ciertas aplicaciones sobre todo si consideramos que el uso de IA Generativa puede crear contenidos que pueden atentar contra la reputación con consecuencias discriminatorias de una persona.

En el segundo frente, es posible considerar el desarrollo de cuerpos normativos específicos cuya materia necesita un amplio desarrollo. Como ejemplo de lo anterior, se podría hacer referencia al desarrollo y uso de armas autónomas. Esta materia, a pesar de no ser tan novedosa (los autómatas han estado presentes en el campo de batalla desde los tiempos de da Vinci y di Fontana) incorpora elementos que pudiesen vulnerar los derechos humanos en ausencia de criterios éticos y morales en los respectivos esquemas de optimización que se ajusten a casos concretos. Una normativa de esta índole pudiese establecer requerimientos y prohibiciones sobre diferentes eslabones de la cadena de valor que soporta a estas armas de nueva generación. Por ejemplo, se podría prohibir el depósito en repositorios de software de acceso abierto de códigos diseñados para desarrollar estas armas al margen del fuero militar, así como la destrucción y “limpieza” de los sistemas una vez que los mismos han cumplido con sus propósitos.

Como se puede colegir de lo anterior, la regulación de la IA en México (y en cualquier parte del mundo) no depende del esfuerzo de todólogos que buscan presentar soluciones de carácter universal a un problema caracterizado por su transversalidad. Es decir, si queremos ajustar el marco normativo que actúa como el conjunto de reglas de transición de nuestras sociedades frente a los riesgos y oportunidades que introduce la IA, debemos enfocarnos: 1) en las necesidades concretas y reales de nuestra sociedad; 2) verificar las necesidades de cada sector e industria así como la interoperabilidad de necesidades que tienen; 3) monitorear los esquemas de auto estructuración y auto regulación con la finalidad de verificar que se acoplan al espíritu de las normas que les pudiesen ser aplicables, y 4) de forma complementaria a lo anterior, verificar si existe la necesidad de diseñar una ley de carácter general en la materia, la cual debería centrarse en los principios que regularán el desarrollo de la tecnología bajo análisis así como de su despliegue.