Hoy en día el uso de técnicas avanzadas de optimización y de Inteligencia artificial se ha convertido en una vía práctica y eficiente para la realización sistematizada de actividades, facilitando el procesamiento y análisis automático. Sin embargo, en el ámbito algorítmico se deben tomar en cuenta las diversas dificultades que esto supone, especialmente si el resultado de su aplicación es la toma de decisiones que afecta a individuos o grupos. Uno de estos desafíos es el relacionado con el sentido de justicia.
Suponiendo que, si se aplica un algoritmo de Machine Learning para realizar clasificación automática, se debe contemplar que en muchos casos existen fuentes de datos que están desproporcionados, habiendo individuos o grupos que pueden estar siendo no representados apropiadamente. Esto conlleva a que se deban aplicar principios de justicia.
Los sesgos algorítmicos, la discriminación y, por consiguiente, la injusticia ya han sido identificados en diversas aplicaciones de IA (John-Mathews, 2022). Por sesgos algorítmicos nos referiremos a los prejuicios o parcialidades que pueden estar presentes en los algoritmos. Estos pueden surgir debido a razones como datos de entrenamiento sesgados, decisiones de diseño del algoritmo o su implementación.
Si bien las técnicas de IA dependen en gran medida de los datos, reconocer resultados sesgados es una tarea es difícil. Si los datos de entrenamiento contienen sesgos no deseados, el algoritmo resultante los incorporará y los reforzará (Ruf y Detyniecki, 2021). Es importante destacar que los datos utilizados para entrenar un algoritmo de aprendizaje automático se consideran la ground truth, es decir, la verdad absoluta en este contexto.
Fairness, es el concepto que ha sido abordado en literatura de la IA y de desarrollo de algoritmos que se asocia a la búsqueda de principios de justicia. Lo que esto signifique en el contexto en el que se aplican los algoritmos y que en algunos casos se refiere a: justicia, equidad, imparcialidad, non-discriminación y/o diversidad, étc.
En el mismo ámbito, Individual Fairness se definió como la condición en la cual individuos similares reciben distribuciones similares de resultados mientras que Group Fairness asegura que los grupos demográficos reciban decisiones similares (paridad demográfica) (Dwork et al., 2012).
Con esto último, un camino que ha sido estudiado es la definición de métricas de similaridad entre individuos, para establecer nociones de justicia dando trato similar a individuos similares y asegurando la paridad demográfica. La pregunta clave vigente es ¿qué métrica es la más adecuada bajo cierto contexto?.
Por otra parte, ya se han desarrollado proyectos que evalúan o buscan mantener principios de justicia en contextos específicos, un ejemplo de esto es Fairlearn (fairlearn.org) iniciado en 2018 por Miro Dudik de Microsoft Research en donde presentó un algoritmo de reducción para mitigar la injusticia en modelos de clasificación binaria (Weerts y colaboradores, 2023).
Así que se siguen manteniendo esfuerzos en el campo de Ética de la IA, siendo las instituciones académicas quienes han dado un mayor impulso promoviendo acciones de Responsabilidad en la IA (John-Mathews, 2022). Esto, sin olvidar el desafío al que se enfrentan los distintos gobiernos en establecer regulaciones al respecto.
Ruf, B., & Detyniecki, M. (2021). Towards the right kind of fairness in AI. arXiv preprint arXiv:2102.08453. DOI: https://doi.org/10.48550/arXiv.2102.08453.
John-Mathews, J. M., Cardon, D., & Balagué, C. (2022). From reality to world. A critical perspective on AI fairness. Journal of Business Ethics, 178(4), 945-959. DOI: https://doi.org/10.1007/s10551-022-05055-8.
Dwork, C., Hardt, M., Pitassi, T., Reingold, O., & Zemel, R. (2012, January). Fairness through awareness. In Proceedings of the 3rd innovations in theoretical computer science conference (pp. 214-226). DOI: https://doi.org/10.1145/2090236.2090255.
Weerts, H., Dudík, M., Edgar, R., Jalali, A., Lutz, R., & Madaio, M. (2023). Fairlearn: Assessing and improving fairness of ai systems. Journal of Machine Learning Research, 24(257), 1-8. URL: https://www.jmlr.org/papers/v24/23-0389.html.