Derecho e inteligencia artificial: atención especial a los sesgos, la privacidad y la protección de datos

La incorporación de la inteligencia artificial (en adelante, IA) reviste un sin número de beneficios, pero también es necesario considerar que esta tecnología encierra múltiples desafíos y riesgos que el derecho debe revisar y supervisar, en tanto que garante de la correcta ordenación de las relaciones entre las personas. Así, el principal riesgo es el de generar algún tipo de discriminación. Perturbar derechos fundamentales generando un trato desigual es uno de los elementos principales sobre los que trabajar desde un prisma jurídico. Y es que cualquier decisión proveniente de la inteligencia artificial que provoque dos respuestas diferentes en los sujetos es susceptible de ser reconducida a los parámetros de la discriminación.

La inteligencia artificial puede tener sesgos[1] y discriminar a las personas si los datos y los modelos de aprendizaje automático utilizados para entrenarla contienen prejuicios o información errónea. Los sistemas de IA se basan en datos[2] que recolectan y analizan para «aprender» y realizar tareas de manera autónoma, por lo que si los datos utilizados para entrenar una IA contienen información sesgada o prejuicios, es posible que el sistema también reproduzca esos sesgos y discrimine a ciertas personas o grupos. Por ejemplo, si se entrena un sistema de IA con datos que muestran una mayor cantidad de delitos cometidos por personas de un determinado grupo étnico, es posible que el sistema «aprenda» a discriminar a ese grupo en particular. Es importante tener en cuenta que los sesgos en la IA pueden tener consecuencias graves en ámbitos como la seguridad, la salud y la justicia, por lo que es fundamental garantizar que los datos y los modelos utilizados para entrenar a la IA sean objetivos y libres de prejuicios.

Fuente: https://unsplash.com/es/fotos/uPXs5Vx5bIg

Hay varios métodos para detectar sesgos en la inteligencia artificial. Uno de los más comunes es el análisis estadístico de los datos utilizados para entrenar a la IA, para identificar posibles sesgos en los patrones de datos y en la forma en que el sistema procesa y utiliza esa información. También se pueden utilizar técnicas de evaluación de la calidad de los modelos de aprendizaje automático, que permiten medir el desempeño del sistema en tareas específicas y compararlo con el de otros sistemas o con el de humanos. Otra forma de detectar sesgos en la IA es mediante la realización de pruebas o experimentos que permitan evaluar el comportamiento del sistema en diferentes situaciones y contextos, y verificar si existen diferencias en su desempeño en función de variables como el género, la raza, la edad o la orientación sexual de las personas que interactúan con él. En general, es importante tener en cuenta que la detección de sesgos en la IA requiere de un enfoque sistemático y riguroso, que incluya la participación de expertos en el área y la utilización de herramientas y técnicas adecuadas.

Por su parte, la discriminación algorítmica es un fenómeno que se produce cuando sistemas de IA o algoritmos utilizados para tomar decisiones automatizadas discriminan de manera indirecta o inconsciente a ciertas personas o grupos. Esto puede ocurrir cuando los datos utilizados para entrenar a la IA o para desarrollar los algoritmos contienen información sesgada o prejuicios, o cuando los modelos de aprendizaje automático utilizados reproducen o refuerzan esos sesgos. La discriminación algorítmica puede tener consecuencias graves en ámbitos como la salud, la educación, la justicia y el empleo, y puede afectar la equidad y la justicia social. Por ello, es importante abordar la discriminación algorítmica mediante la identificación y corrección de los sesgos en los datos y los modelos utilizados para entrenar a la IA, así como mediante la implementación de medidas y regulaciones que garanticen el uso responsable y ético de estas tecnologías.

Además, la introducción de sesgos también genera situaciones discriminatorias[3], por lo que no solo abordamos la cuestión desde los resultados sino también desde la generación de los datos a estudiar para llegar a esas inferencias[4]. Lo que nos conduce a la necesidad de estudiar el modo de conseguir esos datos relativos a las actuaciones personales para poder analizar la información y dar una respuesta desde un punto de vista tecnológico. La privacidad y la protección de datos guardarán, por tanto, una relación directa con la afectación de derechos fundamentales en los resultados obtenidos.

En consonancia con lo expuesto, la labor del derecho será la de generar las herramientas pertinentes para que el imparable avance tecnológico se desarrolle en armonía con el respeto de los derechos de los ciudadanos. Una tecnología que evolucione en el seno de la discriminación irá ampliando progresivamente la brecha de los tratos discriminatorios, por lo que paliar esa merma será uno de los problemas, si no lo es ya, a los que el derecho deberá hacer frente. La posición contraria a la expansión de la realidad tecnológica no es ni positiva ni realizable. La asimilación de parámetros que empleen la inteligencia artificial de manera ética y respetuosa con el derecho es el camino para seguir evolucionando en la realidad tecnológica que nos circunda y que, necesariamente, será la piedra angular del futuro desarrollo de las sociedades.

UNESCO, 2021. Recomendación sobre la ética en inteligencia artificial. UNESCO.

[1] Un sesgo es una inclinación o tendencia a favor o en contra de algo o alguien, que puede afectar la forma en que se percibe o se trata una situación o una persona. Los sesgos pueden ser conscientes o inconscientes, y pueden influir en nuestras decisiones y acciones de manera negativa.

[2] De ahí que una cuestión matriz sea la relativa a la protección de datos, que responde al conjunto de medidas y políticas que tienen como objetivo garantizar que se trate de manera responsable y segura la información personal de las personas. Esto incluye su recopilación, uso, almacenamiento y eliminación, entre otros aspectos. La protección de datos es importante porque ayuda a preservar la privacidad de las personas y evita el uso indebido de su información personal.

[3] Así lo ha planteado la UNESCO (2021) en su Recomendación sobre la Ética de la IA: “Se deben evitar los sesgos que pueden incorporar y exacerbar, lo que puede llegar a provocar discriminación, desigualdad, brechas digitales y exclusión y suponer una amenaza para la diversidad cultural, social y biológica, así como generar divisiones sociales o económicas; la necesidad de transparencia e inteligibilidad del funcionamiento de los algoritmos y los datos con los que han sido entrenados; y su posible impacto en, entre otros, la dignidad humana, los derechos humanos y las libertades fundamentales, la igualdad de género, la democracia, los procesos sociales, económicos, políticos y culturales, las prácticas científicas y de ingeniería, el bienestar animal y el medio ambiente y los ecosistemas”. (p. 1)

[4] Un triste ejemplo es el de los algoritmos de reconocimiento facial de distintas empresas tecnológicas como Google, Amazon y Facebook que confundieron a los hombres de raza negra con diversos tipos de primates. Este error fue corregido mediante la eliminación de las bases de datos de todas las imágenes de simios y el ofrecimiento de disculpas públicas por la falta de prolijidad en la construcción del algoritmo y configuración de la base de datos.