Inteligencia Artificial: el reto de su regulación normativa

Abogada Penalista - Delitos Informáticos

El pasado 19 de febrero de 2020 se publicaba por la Comisión Europea su primer Libro Blanco sobre la Inteligencia Artificial. Como es frecuente, bajo la forma de libro blanco se presentan un informe exploratorio que precede habitualmente a una fase de consultas públicas que a su vez suele venir seguida de la fijación por la Comisión Europea de las líneas políticas generales en una determinada materia, e incluso de una propuesta regulatoria concreta. Así, al libro blanco siguió inmediatamente un periodo público de aportaciones abierto hasta el 19 de mayo del 2020. De la lectura del texto se desprende que el establecimiento de directrices que orienten el desarrollo de esta tecnología con cierto nivel de excelencia y confianza no resulta un proyecto fácil ni sencillo ya que, se entrecruzan en su regulación diferentes disciplinas, entre las cuales se encuentra la jurídica, la tecnológica, la ética y la filosófica. Sin embargo, del texto de la Comisión queda claro que la aprobación de una normativa sobre la IA debe implicar en todo caso la regulación de tres áreas estrechamente interrelacionadas pero que operan en planos distintos: 1) el desarrollo de la tecnología; 2) los principios y derechos fundamentales, la ética y filosofía bajo la cual se desarrolla dicha tecnología y, 3) la cadena de responsabilidades por el efecto e impacto de la misma sobre terceros.

En cuanto a la tecnología, la noción de partida es que la máquina no es inteligente (J. Domingo, 2019) y tampoco no sabe por qué ha decidido lo que ha decidido. Inteligencia implica entender y, la máquina no entiende sino que se entrena con datos históricos para ajustar los parámetros de los algoritmos de decisión. El problema está en los datos masivos que se introducen para entrenarlo y en el objetivo de salida que se les proporciona, en este sentido deben distinguirse al menos dos formas de entrenamiento o “aprendizaje” distinto por las máquinas. El Machine Learning, definido por su pionero Arthur Samuel, es el campo de estudio del aprendizaje de las máquinas sin ser programadas por un humano. El Deep Learning es un subgrupo del machine learning y se fundamenta en la creación artificial de redes neuronales y en la imitación de la capacidad de autoaprendizaje del cerebro humano. El Deep Learning, denominado también aprendizaje profundo, tiene un desarrollo mucho más específico que el machine learning. Ha obtenido grandes resultados trabajando con ingentes cantidades de información, lo cual la hace particularmente apta para su aplicación a estudios científicos, acciones de gobierno e incluso a los negocios. En estos campos, supera con creces los resultados del machine learning por cuanto, según algunos estudios, puede llegar, por ejemplo, a predecir el comportamiento de moléculas defectuosas e incluso reconstruir circuitos cerebrales y hasta prever las mutaciones que podrían producirse en las cadenas de ADN¹. Del mismo modo, el Deep learning ha obtenido resultados relevantes en la comprensión del lenguaje natural y en el análisis de las emociones. En este ámbito esencialmente tecnológico el Libro Blanco aborda la cuestión crucial de la denominada como “opacidad de la IA” o también la “caja negra”, que no es más que la dificultad para trazar o transparentar los procesos de aprendizaje de las máquinas, es decir, la explicación acerca de por qué los sistemas de aprendizaje profundo llegan a unos determinados resultados y conclusiones en la medida en que el Deep learning consiste precisamente en el aprendizaje autónomo por las propias máquinas.

En su Libro Blanco, la Comisión Europea plantea la necesidad de responder a cuestiones, entre otras, ¿cómo garantizar que un desarrollo en IA cumple con requisitos y exigencias mínimos de seguridad y protección de los individuos y sus derechos? o ¿qué mecanismos de auditoría deberían existir para los algoritmos? que será necesario afrontar si se quiere avanzar hacia una regulación sólida y fiable en esta materia. No obstante, viendo las dificultades que ofrece conocer el funcionamiento de los desarrollos en IA, estas cuestiones no son de fácil resolución ni estandarización, teniendo en cuenta, además, que se trata de una normativa comunitaria que se construye sobre la base de las diferentes estrategias nacionales sobre IA, y que debe tomarlas en consideración.

En cuanto a la vertiente ética y filosófica de la IA, debe efectuarse un análisis profundo de principios mínimos de respeto a los derechos fundamentales de los individuos. Apunta Joan Manuel del Pozo (2020) que “la IA presenta un potencial superior a cualquier otro incidente y creación humana y, por tanto, tenemos que someterlo a un nivel superior de exigencia. No podemos permitir que acabe girándose contra el interés humano, contra aquello que consideramos indispensable para una vida digna”. A este respecto el Informe Europeo del Grupo de Expertos de Alto Nivel de la IA de 2019 establecía los principios mínimos que debe reunir el desarrollo de IA para ser considerada una tecnología confiable, y que en todo caso pasan por tener en cuenta el respeto a los derechos fundamentales (respeto a la dignidad, a la libertad individual, a la democracia, justicia, no discriminación, respeto a los derechos de los ciudadanos, etcétera) y a principios éticos como el respeto a la autonomía del ser humano, la prevención del daño, la justicia o la equidad y la explicabilidad de las decisiones algorítmicas. De hecho, el Libro Blanco de la IA de la Comisión Europea, supone ya un gran avance al plantear la dirección hacia la obtención de criterios uniformes para regular, no sólo el diseño de los algoritmos de IA, sino también el tratamiento que se hace de los datos con los que se alimenta.

En cuanto al vínculo de la ética con la IA, según A. MANTELERO (2020) no hay una ética global que pueda aplicarse a todos los países y ésta, nunca puede ser global porque corresponde a la expresión de un entorno o una comunidad y, por tanto, es incluso muy complejo que pueda llegarse, siquiera, a la consideración de una ética global europea.

Es en la programación de la IA donde los sesgos pueden aparecer, convirtiéndose este en un terreno en el que la ética cobra especial protagonismo. De la misma manera que los seres humanos tienen todos, en mayor o menor medida, prejuicios, también aquéllos que programan la IA pueden tenerlos. Por tanto, pueden aparecer numerosos sesgos en un desarrollo inteligente (R.BAEZA-YATES,2020) pero el verdadero problema radica en que, como se señalaba anteriormente, no se hacen evidentes hasta que se cometen -o incluso acumulan- errores. Un ejemplo de ello es la noticia que hemos podido leer esta semana en la que tanto IBM como Amazon hacen público, una el abandono de la comercialización de la tecnología de Inteligencia Artificial mediante biometría facial, y la otra, la prohibición a la policía del uso de su aplicación Rekognition por considerar que se estaba utilizando con objetivos poco éticos y con sesgos racistas. IBM había dirigido el día 8 de junio pasado una carta al Congreso poniendo de manifiesto la imperiosa necesidad de un uso ético de la tecnología sobre la base del derecho de igualdad de todos los ciudadanos.

En esta línea de buscar soluciones más garantistas al uso de la AI, el trabajo efectuado por el grupo de investigación de Ciencia de la Web y la Computación Social de la UPF junto con la Universidad Técnica de Berlín y el Centro Tecnológico Eurecat puede abrir nuevas líneas de trabajo, pues este equipo ha creado un algoritmo que detecta y mitiga los sesgos de otros algoritmos. El sistema se ha denominado FA*IR.67. Son herramientas como éstas las que podrían ayudar a auditar una aplicación por si pudiera haber potencial afectación a los derechos fundamentales de los ciudadanos.

Finalmente, en cuanto a la cadena de responsabilidades, la Comisión Europea propone valorar los impactos de una IA defectuosa, o con resultados no deseados, a partir de la valoración de los riesgos. Así, propone considerar la responsabilidad por capas del desarrollo de la tecnología, distinguiendo si se trata, por ejemplo, de un error en el análisis del diseño y la programación del algoritmo, o del producto final, o de los resultados por su manipulación. Se pone muchas veces como ejemplo el accidente provocado por un coche autónomo. La duda se centra en determinar sobre quién recae la responsabilidad por el accidente: ¿sobre el desarrollador del algoritmo de IA? ¿sobre el vendedor del vehículo? ¿O sobre la compañía aseguradora? O quizás, ¿deberemos hablar de reparto de responsabilidades o de que ésta sea solidaria? En otro orden de cosas, y respecto a la opacidad de los algoritmos, otra de las cuestiones que se plantea es, cómo podrá valorar una compañía aseguradora cuál es el daño potencial de algoritmos que tengan un alto grado de opacidad y carezcan de la posibilidad de dar explicación de por qué se ha tomado una decisión y no otra.

Hay científicos (R. LÓPEZ DE MÁNTARAS, 2020) que consideran como un derecho irrenunciable, sobre cualquier sistema inteligente, la necesidad de que cualquier desarrollo tenga la capacidad de explicación de los resultados. A este respecto, la Unión Europea tiene un proyecto muy ambicioso que consiste en introducir el concepto explicability (artículo 22 RGPD) para obtener explicaciones de cómo ha procesado la máquina los datos para llegar a una conclusión determinada que equivaldría a proteger la democracia según J. DOMINGO (2019), en el sentido de que, la transparencia en la toma de decisiones asegura el control y la exigencia de responsabilidades (accountability) que es un principio esencial en democracia, especialmente en el ámbito de las políticas públicas y de las acciones privadas que afectan a los ciudadanos.

Es en este punto en el que culmina lo que viene planteando el Libro Blanco de la IA, y que es la necesidad de certificación de los proyectos. El Colegio de Abogados de Barcelona hizo una aportación durante la pública consulta del Libro Blanco que consistía en la consideración de la necesidad de exigir a los sistemas basados en Inteligencia Artificial, requisitos sobre la calidad de los datos y la transparencia, así como la obligación de información. Añadió a los anteriores, los requisitos acerca de la necesidad de poder evaluar la solidez del sistema y dar la posibilidad de supervisión humana en todos aquellos desarrollos que pudieran afectar derechos no fundamentales. Y por último, sugirió un nivel de exigencia mucho mayor para aquellos desarrollos en IA que pudieran afectar derechos fundamentales, a los cuales se les debería exigir la inscripción obligatoria en un registro específicamente creado para ello.

A modo de conclusiones, el camino de la regulación internacional y nacional del uso de la Inteligencia Artificial promete ser largo y complejo debido a la necesaria implicación y coordinación de enfoques de varias disciplinas y de intereses económicos tanto de las grandes corporaciones como de los propios Gobiernos por el impacto generalizado que se producirá sobre todos los sectores productivos. El Libro Blanco de la IA de la Comisión Europea es un punto de partida para que, junto con las estrategias nacionales de IA, se produzca ese diálogo socio-político tan necesario para sentar unas bases, lo más homogéneas y consensuadas posible, para un uso confiable y seguro de la Inteligencia Artificial.

¹.-LeCun. Y, Bengio. Y, Hinton.GE. Deep Learning. 2015. Review Nature. Vol. 521. P. 436 y ss.

Para profundizar más:

Publicaciones

Meike Zehlike, Francesco Bonchi, Carlos Castillo, Sara Hajian, Mohamed Megahed, Ricardo Baeza-Yates. “FA*IR: A Fair Top-k Ranking Algorithm”

Ramón López de Mántaras. “La ética en la inteligencia artificial”, Investigación y Ciencia, Foro científico, Agosto 2017.

Ricardo Baeza-Yates, Karma Peiró. “És possible acabar amb els biaixos dels algorismes? (1a i 2a part)”, Blog de Karma Peiró, periodista especializada, 17 de junio de 2019.

Informes

Algorithm Watch. Automating society. Taking stock of Automated Decision-Making in the EU

Ethically Aligned Design. A Vision for Prioritizing Human Wellbeing with Artificial Intelligence and Autonomous Systems. IEEE. Advancing Technology for Humanity. 2016

European Civil Law Rules in Robotics. European Parliament. 2016

 

 

Share on Facebook0Share on Google+0Tweet about this on TwitterShare on LinkedIn0

Deja tu comentario

Tu dirección de email no será publicada. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*