Una aproximación a la inteligencia artificial y su incidencia en los derechos fundamentales

Comencemos asumiendo que no está del todo claro de qué hablamos cuando hablamos de inteligencia artificial (IA en lo sucesivo); así, y por centrarnos en definiciones asumidas por el Parlamento Europeo, se nos dice que es “el software que se desarrolla empleando una o varias de técnicas y estrategias y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa” (artículo 3 de la Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión, de 21 de abril de 2021).

Poco después, en la Resolución del Parlamento Europeo, de 3 de mayo de 2022, sobre la inteligencia artificial en la era digital se señala que “el término IA es un término genérico que abarca una amplia gama de tecnologías, técnicas y enfoques antiguos y nuevos que se entiende mejor bajo la denominación de «sistemas de inteligencia artificial», que se refiere a cualesquiera sistemas automatizados que a menudo apenas tienen nada más en común que estar guiados por un conjunto dado de objetivos definidos por el ser humano, con distintos grados de autonomía en sus acciones, e intervenir en predicciones, recomendaciones o tomas de decisiones basadas en los datos disponibles; señala que, si bien algunas de esas tecnologías ya se utilizan de forma generalizada, otras aún están en fase de desarrollo o incluso son solo conceptos especulativos que pueden existir o no en el futuro…”

En esta misma Resolución se recuerda algo importante: hay una diferencia significativa entre la IA simbólica, que constituye el principal enfoque entre los años cincuenta y los noventa del siglo pasado, y la IA basada en datos y aprendizaje automático, que domina desde el año 2000. Durante la primera oleada, la IA se desarrolló codificando los conocimientos y la experiencia de los expertos en un conjunto de reglas que luego ejecutaba una máquina; en la segunda oleada, los procesos de aprendizaje automatizados de algoritmos basados en el procesamiento de grandes cantidades de datos, la capacidad de reunir datos procedentes de múltiples fuentes diferentes y de elaborar representaciones complejas de un entorno dado, y la determinación de patrones convirtieron a los sistemas de IA en sistemas más complejos, autónomos y opacos, lo que puede hacer que los resultados sean menos explicables; en consecuencia, la IA actual puede clasificarse en muchos subcampos y técnicas diferentes.

Pues bien, y siguiendo en el ámbito de la Unión Europea, en el primer párrafo del Libro Blanco sobre la inteligencia artificial de la Comisión, de 19 de febrero de 2020, se dice que “la IA se está desarrollando rápido. Cambiará nuestras vidas, pues mejorará la atención sanitaria (por ejemplo, incrementando la precisión de los diagnósticos y permitiendo una mejor prevención de las enfermedades), aumentará la eficiencia de la agricultura, contribuirá a la mitigación del cambio climático y a la correspondiente adaptación, mejorará la eficiencia de los sistemas de producción a través de un mantenimiento predictivo, aumentará la seguridad de los europeos y nos aportará otros muchos cambios que de momento solo podemos intuir. Al mismo tiempo, la IA conlleva una serie de riesgos potenciales, como la opacidad en la toma de decisiones, la discriminación de género o de otro tipo, la intromisión en nuestras vidas privadas o su uso con fines delictivos”.

Así pues, la Comisión Europea asume algo que parece de todo punto inevitable: que la IA va a cambiar -lo está haciendo- nuestras vidas y, en consecuencia, esa transformación afecta a un gran número, sino a la práctica totalidad, de nuestros derechos fundamentales; veamos algunos ejemplos.

En primer lugar, es bien conocido que la IA ya se está aplicando en el ámbito de las investigaciones policiales y judiciales relacionadas con la libertad personal en la medida en que se llevan a cabo predicciones de posibles delitos; así, en Estados Unidos es cada vez más frecuente, como explica Cathy O’Neil en su libro Armas de destrucción matemática, que los departamentos de policía usen programas predictivos, como PredPol o CompStat, para desplegar las patrullas en los cuadrantes de las ciudades identificados en cada momento como más peligrosos en función de la tipología y la localización de los delitos, así como del momento en el que se cometieron, es decir, estos sistemas no se centran en personas sino en la geografía y eso, en teoría, es ajeno a prejuicios de raza o socioeconómicos, algo no baladí en materia de derechos fundamentales.

El problema surge cuando estos sistemas se apoyan en datos que pueden reflejar, de manera intencionada o no, sesgos en función de cómo se registran los delitos, qué delitos se seleccionan para ser incluidos en el análisis o qué herramientas analíticas se utilizan. En particular, dichos programas permiten incorporar lo que no son delitos graves (homicidios, asaltos…) sino, más bien, alteraciones del orden público y la seguridad ciudadana (venta de drogas a pequeña escala, consumo de alcohol en la calle…) y  eso acaba generando más atención policial a los barrios donde tales alteraciones se producen lo que, a su vez, se traduce en mayor número de identificaciones y detenciones, generando así una retroalimentación en la que, al menos en no pocas ciudades de Estados Unidos, la geografía es, en palabras de O’Neil, “un valor sustitutivo altamente eficaz para la raza”, lo que nos remonta a la famosa “teoría de las ventanas rotas”, que postula la relación entre el comportamiento antisocial y la delincuencia, incluidos los delitos más graves  y que ignora, por ejemplo, los llamados delitos de “cuello blanco”.

Es también habitual el recurso a la IA en el ámbito de justicia para,  por ejemplo, apoyar la toma de decisiones dirigidas a tutelar la vida y la integridad de las mujeres frente a la violencia de género. Así, el Sistema de Seguimiento Integral en los casos de Violencia de Género (Sistema VioGén) es el algoritmo que determina en España el nivel de riesgo de una víctima de esa violencia y las medidas de protección y constituye el mayor sistema del mundo en ese ámbito, con más de 3 millones de casos registrados. Según la Auditoría-informe de la Fundación Éticas, en enero de 2022 había 673.912 casos en el sistema, de los cuales 69.391 eran casos activos que requerían supervisión policial. Lo que nos interesa destacar ahora es que, según la mencionada Auditoria, el sistema no es transparente: no se puede acceder a ningún dato o información más allá de lo producido por los expertos que participaron en la definición del sistema. Ni los auditores externos ni los grupos de mujeres tienen ningún tipo de acceso. El sistema no ha sido evaluado ni auditado de forma independiente y tampoco involucra a las destinatarias, que nunca han sido consultadas sobre el sistema, ni en su fase de diseño ni posteriormente durante las diferentes decisiones sobre cómo modificarlo.

En segundo lugar, parece que entre los derechos fundamentales más afectados por la aplicación de la IA estarán los que garantizan la protección de los datos personales y el secreto de las comunicaciones. Respecto a los datos, en el conocido libro de Shoshana Zuboff La era del capitalismo de vigilancia se hace eco de una investigación llevada a cabo por periodistas de Quartz que, ya en 2017, pusieron de manifiesto que los teléfonos Android recogían las direcciones de las torres de telefonía móvil cercanas -incluso cuando los servicios de localización estaban desactivados- y enviaban esos datos a Google. El resultado es que Google tenía acceso a datos sobre la ubicación de las personas y sus movimientos que iban mucho más allá de una expectativa razonable de privacidad del consumidor. La información así obtenida se usaba para administrar las notificaciones y mensajes cortos que Google enviaba a los teléfonos Android de los usuarios, lo que le permitía a la compañía rastrear si una persona con un móvil de ese tipo o que estuviera ejecutando una aplicación de Google había entrado en una tienda concretar y usar esa información para enviar los anuncios que el usuario verá de inmediato.

Y en relación con el secreto de las comunicaciones cabe mencionar el reciente caso Big Brother Watch y otros c. el Reino Unido, resuelto el 25 de mayo de 2021 por la Gran Sala del Tribunal Europeo de Derechos Humanos y que trae causa de las revelaciones de Edward Snowden sobre los programas de vigilancia e intercambio de información entre Estados Unidos y el Reino Unido. La Gran Sala concluyó por unanimidad que había existido una violación del derecho al respeto de la vida privada y familiar y al secreto de las comunicaciones pero admitió que el artículo 8 del Convenio Europeo de Derechos Humanos no impide recurrir con carácter general a la interceptación masiva de las comunicaciones para proteger la seguridad nacional u otros intereses esenciales contra amenazas externas graves; también que los Estados gozan de un amplio margen de apreciación para determinar el tipo de régimen de interceptación que necesitan a tal efecto. Por contraste, no puede dejar de mencionarse lo que dice en su voto discrepante el juez Pinto de Albuquerque, que reprocha a la mayoría alterar el equilibrio en Europa entre el derecho a la intimidad y los intereses de la seguridad pública, ya que avala la vigilancia no selectiva del contenido de las comunicaciones electrónicas y los datos de las comunicaciones asociadas y, lo que es peor, el intercambio de datos con terceros países que no tienen un nivel de protección comparable al de los Estados del Consejo de Europa. “Para bien o para mal -para mal, en mi opinión-, la sentencia del Tribunal allana el camino hacia un «Gran Hermano» electrónico en Europa” (párrafo 60).

En tercer lugar, y por no extendernos mucho más, cabe mencionar un caso que evidencia los riesgos de la IA cuando está en juego el acceso a prestaciones sociales: es el llamado “escándalo de las ayudas a la infancia” en los Países Bajos, que, entre otras reacciones, originó un Informe de la Comisión de Venecia de 18 de octubre de 2021.

Como relata la profesora Ingrid Leijten, en un contexto social y político preocupado por la prevención del fraude, se promulgó una legislación dirigida a garantizar el reembolso de las ayudas a la infancia pagadas erróneamente. Durante años, las disposiciones pertinentes se interpretaron de manera que, en caso de detectarse una irregularidad, incluso años después de la concesión de la asignación, había que devolver la totalidad del importe (a veces hasta 30.000 euros anuales). Las familias eran incluidas en la lista de «defraudadoras», incluso si solo se trataba de defectos menores o, en realidad, no había habido un error suyo; rara vez recibían información y los recursos ante el máximo tribunal administrativo eran sistemáticamente rechazados, lo que provocó, a miles de personas, graves problemas financieros, psicológicos y físicos.

De acuerdo con el informe de la Comisión de Venecia, las solicitudes que se consideraban sospechosas se seleccionaban a partir de un modelo de clasificación de riesgos, que era un algoritmo que «autoaprendía» a partir de ejemplos de solicitudes correctas e incorrectas. Uno de los muchos indicadores utilizados para identificar los casos de fraude era la ciudadanía y los solicitantes de origen extranjero eran seleccionados por el sistema para un examen detallado de sus peticiones. Resultó que el sistema trabajaba partiendo de la base de que el 80% de los beneficiarios de las ayudas sociales eran «malos» y el 20% eran «buenos», a pesar de que tal enfoque significaba que incluso personas que no habían cometido ninguna infracción serían sancionadas. Esto se denominó «enfoque 80/20» o enfoque de grupo.

Estos y otros muchos ejemplos que también podrían mencionarse sobre la incidencia de la IA en los derechos fundamentales -los algoritmos de las redes sociales incentivan que los medios de comunicación produzcan no tanto contenidos plurales sino los que atraigan el tráfico a sus páginas web y así rentabilizarlas más; el funcionamiento de los algoritmos en las plataformas de las redes sociales y la gran cantidad de información personal identificable sobre los individuos que está disponible puede utilizarse para rastrear e identificar personas y clasificarlas si promueven reuniones y manifestaciones, lo que podría tener un efecto desaliento sobre el ejercicio de dichas libertades- evidencian la necesidad de que los Estados sociales y democráticos de Derecho e instituciones como las de la Unión Europea vayan pasando de las meras recomendaciones éticas al establecimiento de normas jurídicas que operen como límites tanto frente a las amenazas del uso de la IA por parte de los propios poderes públicos -recuérdese el mencionado asunto Big Brother Wacht– como respecto a los peligros evidentes que generan unos bien conocidos actores privados que imponen sus reglas particulares al conjunto de los usuarios e, incluso, a los propios poderes públicos que, por ejemplo, están dispuestos a dar prioridad absoluta a la protección de la propiedad algorítmica privada en detrimento de otros derechos fundamentales ciudadanos, como el derecho de defensa frente a una acusación penal o la prohibición de discriminación en el acceso a una prestación social.

Y es que, como explica Giovanni di Gregorio en su libro Digital Constitutionalism in Europe. Reframing Rights and Powers in the Algorithmic Society, la noción tradicional de la Ley, como expresión de la autoridad pública, parece cada vez más matizada y compitiendo con normas (auto)producidas por actores no estatales y empresas privadas de ámbito mundial. En esta peligrosa deriva, cuando los Estados delegan en las grandes plataformas digitales el control de la publicación de contenidos “ilegales” están delegándoles, de hecho, la propia definición de lo que es “ilegal”, lo que, por una parte, además, les permite recurrir al cómodo instrumento de las herramientas automatizadas de control y, por otra, hace posible la eliminación de contenidos perfectamente legales o el bloqueo espurio de usuarios sin rendir cuenta alguna.

En suma, y habiendo llegado la hora de pasar de las recomendaciones éticas a las normas jurídicas, la Unión Europea y los Estados que la integran deben aprobar un marco normativo basado en la minimización de datos, la rendición de cuentas, la transparencia, la no discriminación y la explicabilidad, sometiendo el desarrollo, el despliegue y el uso de la IA a los principios de precaución y proporcionalidad.

La Unión Europea, no estando a la cabeza del desarrollo tecnológico de la IA, parece apostar por ser una referencia normativa a escala mundial; así, se señala que “el establecimiento del primer marco regulador del mundo en materia de IA podría suponer una ventaja para la Unión, como pionera, para establecer normas internacionales de IA basadas en los derechos fundamentales, así como para exportar con éxito la «IA de confianza» centrada en el ser humano a todo el mundo” (Resolución del Parlamento Europeo, de 3 de mayo de 2022, sobre la inteligencia artificial en la era digital).

A nuestro juicio, parece extremadamente optimista pensar que una regulación europea de la IA basada en los derechos fundamentales pueda ser “exportable” a las potencias tecnológicas en la materia pero también nos parece innegable que si la Unión Europea aspira a seguir gobernándose conforme a los valores de la dignidad humana, la libertad, la igualdad y la solidaridad y en los principios de la democracia y del Estado de Derecho (Preámbulo de la Carta de Derechos Fundamentales de la Unión Europea) no puede seguir ignorando la necesidad de proteger esos mismos derechos fundamentales ante los avances de la robótica, la IA y las tecnologías conexas.

2 Comments

  1. Que las grandes plataformas sean los «guardianes» de que no se produzcan contenidos ilícitos o al menos que no se desarrollen en la web, es como poner el zorro a guardar el gallinero.
    Como Europa no se quite el complejo de árbitro regulador y no actúe contra esas grandes plataformas pero a la vez desarrollando unas leyes claras, determinantes, adaptables, que no lastren la creatividad ni los DDHH pero sin hacer entreguismo a esas grandes plataformas o empresas con intereses exclusivamente económicos, nos dirigimos a una sociedad (más) idiotizada y que se merece estar merma de derechos por el entreguismo que hace de ellos, a cambio de estar todo el día viendo fotos estúpidas.

  2. […] Blog Nòva Icaria de Presno Linera: https://idpbarcelona.net/una-aproximacion-a-la-inteligencia-artificial-y-su-incidencia-en-los-derech… […]

Deja tu comentario

Tu dirección de email no será publicada. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.