Inteligencia Artificial y Proceso (Eficiencia y Garantías)

La inteligencia artificial (IA) está llamada a cambiar (si no lo ha hecho ya) nuestras vidas. Pensemos, por ejemplo, en lo que ésta supone en cuanto a la prevención, diagnóstico y tratamiento de enfermedades, el incremento del rendimiento agrícola, el control sobre el cambio climático, la mejora de productividad de las empresas, la conducción autónoma de automóviles, el diseño de pólizas de seguro, la reserva automatizada de un vuelo o, por lo que se refiere al ámbito de la Administración de Justicia, la aplicación de herramientas (instrumentales o, incluso, decisionales) con las que pueda contar el titular de la potestad jurisdiccional para cumplir con sus funciones de juzgar y hacer ejecutar lo juzgado (con inclusión también, como es lógico, de la tutela cautelar).

IA que genera, a partes iguales, tanta fascinación como desconfianza. Sin duda, son muchas las ventajas que puede suministrar el uso de la inteligencia artificial en el ámbito de la Justicia: reducción de las cargas de trabajo, agilización temporal de las respuestas y previsión casi matemática del contenido de las decisiones judiciales. Ello, no obstante, tampoco debe hacernos olvidar que la IA, aplicada en el proceso, también implica notables riesgos: deshumanización, invasión de la intimidad o alejamiento de la ponderación, al resolver la controversia, de las circunstancias particulares que acompañan a cada caso concreto.

De ahí, precisamente, que la regulación e implementación de la IA, también en el proceso, necesite venir acompañada de un conjunto de reglas éticas que permitan articular su compatibilidad con el obligado respeto de los derechos fundamentales. En este contexto, el desarrollo de los sistemas de IA debiera ajustarse a principios tales como la proporcionalidad, la seguridad, la equidad, la no discriminación, la defensa de la intimidad, la protección de datos, la supervisión y decisión humanas, la transparencia, su trazabilidad, la razonabilidad, la rendición de cuentas y la responsabilidad.

En función del principio de proporcionalidad, la decisión de utilizar un determinado instrumento de IA debiera ser siempre adecuada y proporcional a la consecución de un objetivo legítimo, no vulnerar los derechos fundamentales, adaptarse a su particular contexto de aplicación y fundarse en criterios científicos rigurosos y conocidos. Al amparo del principio de no discriminación y de las exigencias propias de la equidad, los sistemas de IA no pueden ni deben sustentarse sobre aplicaciones o resultados discriminatorios o sesgados, así como han de compatibilizarse con el derecho a la intimidad y la protección de datos personales. Por su parte, la transparencia deviene principio esencial sin el cual carece de sentido hablar, en propiedad, de un eficaz control sobre su aplicación.

En otras palabras, la IA, en un Estado social y democrático de Derecho, debe ser “fiable”. Ello hace que su implementación, desde la óptica del procesalista, nos sitúe ante la imperiosa necesidad (en particular ante su acepción “fuerte” o “decisional”) de replantear, racionalmente, la correcta comprensión de las garantías procesales que integran el llamado modelo de juicio justo o proceso con todas las garantías (art. 24 CE).

El derecho de defensa y el principio de contradicción exigen no solo la publicidad de los algoritmos utilizados, sino también que los abogados y, en especial, los Jueces y Magistrados, puedan seguir desarrollando “su creatividad” en el proceso. De hecho, solo cuando éstos puedan ponderar las circunstancias del caso concreto, mediante una adecuada persuasión racional de la prueba practica en el proceso, será posible huir de las injusticias propias de una justicia extremadamente estandarizada en función de los datos utilizados por el modelo de IA aplicado.

De otra parte, la toma en consideración del derecho a la intimidad, de la protección de datos personales y de la presunción de inocencia deben hacernos también recapacitar acerca de aquellos peligros que encierra un escenario en que la IA, derivada del Big Data, maneja millones de datos almacenados en función de la selección de su creador. Selección, que nadie lo olvide, también puede corresponder, en detrimento de tan anhelada neutralidad, a ciertos “sesgos ideológicos” o “patrones de sospecha”.

Modelos de IA que, en cualquier caso, deberán ser compatibles con el respeto del contenido complejo del derecho fundamental a la tutela judicial efectiva (en particular, por lo que se refiere a la exigencia de que las sentencias deben ser fácticamente motivadas y jurídicamente fundadas), así con una correcta interpretación, garantista, del derecho al recurso.

Expuesto lo anterior, en pleno siglo XXI carece de sentido obviar, cual “negacionistas”, que la IA ha llegado para quedarse entre nosotros. Cosa bien distinta, sin embargo, es caer en el extremo contrario de dejarse “abducir”, hoy en día (las cosas pueden cambiar con ocasión de los avances científicos y tecnológicos), por una justicia de “cajero automático” y sustitutiva del “juez humano”. La IA, salvo que nos queramos engañar en una autocomplacencia más bien propia de un Derecho Procesal de “ciencia ficción”, no solucionará, de un plumazo, todos aquellos problemas y disfunciones que son propias de nuestro actual modelo de justicia. Harina de otro costal es, por el contrario, que su utilización instrumental, en cuanto auxilio del juez humano, resulte algo más que conveniente y útil.

Que el juzgador pueda contar con “ingredientes algorítmicos” no quiere decir, por tanto, que la motivación pueda venir dada por el “frío” resultado de la valoración probatoria enfrentada por el “juez robot”, sino que ésta debiera seguir siendo, en mi opinión, fruto del pensamiento humano (eso sí, ayudado, con claro refuerzo de su fiabilidad, por sistemas de naturaleza computacional). Admitir lo contrario supondría otorgar patente de corso a la generalización de una nueva especie de las motivaciones “per relationem” (incluso más gravosa que la que ya se constata hace años por mor de la aplicación, injustificada, de la técnica del “corta y pega”), así como priorizar una supuesta eficiencia procesal (visión economicista del proceso) por encima de la justicia del caso concreto y el obligado respeto de los derechos fundamentales (y entre ellos, en particular, de las garantías procesales básicas).

A mi juicio, no es nuestro sistema de derechos fundamentales el que debe adaptarse a la realidad derivada de la inteligencia artificial, sino que es dicha IA la que debe ajustarse a las exigencias que nos impone a todos el respeto de los derechos fundamentales. En esta línea, parece acertado el tenor de la Carta de Derechos Digitales, elaborada por el Gobierno español (en consonancia con lo declarado y proyectado en este terreno por la Unión Europea). Ello es así, porque entre dichos derechos fundamentales de contenido digital se incorpora no solo el derecho a no verse sometido a una decisión basada únicamente en procesos automatizados, sino también el derecho a impugnar las decisiones automatizadas y a solicitar, por extensión, la supervisión e intervención humana sobre las mismas en el caso concreto.

El problema no es tanto si un robot puede o no sustituir a un juez humano (de hecho, ya existen experiencias que demuestran, con mejor o peor funcionamiento, que ello es factible), sino decidir si dicha opción acabará por definir una sociedad más justa. No sea que bajo el “encanto” de la ciberindustria del proceso, la revolución digital, la inteligencia artificial o la robotización de la justicia, acabe por abrirse una “ventana” a nuevas formas de “dictadura digital” residenciadas en las élites y en las que éstas no tengan el más mínimo interés en desarrollar, por ejemplo, al hilo de la responsabilidad civil, el concepto de “personalidad electrónica” o, en su caso, explorar las vías para determinar un adecuado control del “programa” y su “controlador”.

El reto es mayúsculo, pues nos jugamos en buena medida nuestra libertad y seguridad. En cualquier caso, el futuro inmediato de la IA, cuando menos por lo que se refiere a su utilización judicial, pasará por alcanzar un nada sencillo equilibrio entre la eficiencia procesal y el respeto de las garantías básicas. Equilibrio en que los ingenieros, físicos, químicos, médicos o biólogos tienen mucho que decir, pero en el que no será de recibo silenciar, por intereses más o menos torticeros, aquello que puedan aportar los juristas.

Para leerse o documentar más sobre el tema puede consultarse:

 

Deja tu comentario

Tu dirección de email no será publicada. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.