Intel·ligència Artificial i Procés (Eficiència vs Garanties)

La intel·ligència artificial (IA) està cridada a canviar (si no ho ha fet ja) les nostres vides. Pensem, per exemple, en el que aquesta suposa quant a la prevenció, diagnòstic i tractament de malalties, l’increment del rendiment agrícola, el control sobre el canvi climàtic, la millora de productivitat de les empreses, la conducció autònoma d’automòbils, el disseny de pòlisses d’assegurança, la reserva automatitzada d’un vol o, pel que fa a l’àmbit de l’Administració de Justícia, l’aplicació d’eines (instrumentals o, fins i tot, decisionals) amb les quals pugui comptar el titular de la potestat jurisdiccional per a complir amb les seves funcions de jutjar i fer executar el jutjat (amb inclusió també, com és lògic, de la tutela cautelar).

Una IA que genera, a parts iguals, tanta fascinació com desconfiança. Sens dubte, són moltes els avantatges que pot subministrar l’ús de la intel·ligència artificial en l’àmbit de la Justícia: reducció de les càrregues de treball, agilitació temporal de les respostes i previsió gairebé matemàtica del contingut de les decisions judicials. No obstant això, tampoc ha de fer-nos oblidar que la IA, aplicada en el procés, també implica notables riscos: deshumanització, invasió de la intimitat o allunyament de la ponderació, en resoldre la controvèrsia, de les circumstàncies particulars que acompanyen a cada cas concret.

D’aquí, precisament, que la regulació i implementació de la IA, també en el procés, necessiti venir acompanyada d’un conjunt de regles ètiques que permetin articular la seva compatibilitat amb l’obligat respecte dels drets fonamentals. En aquest context, el desenvolupament dels sistemes de IA hauria d’ajustar-se a principis com ara la proporcionalitat, la seguretat, l’equitat, la no discriminació, la defensa de la intimitat, la protecció de dades, la supervisió i decisió humanes, la transparència, la seva traçabilitat, la raonabilitat, la rendició de comptes i la responsabilitat.

En funció del principi de proporcionalitat, la decisió d’utilitzar un determinat instrument de IA hauria de ser sempre adequada i proporcional a la consecució d’un objectiu legítim, no vulnerar els drets fonamentals, adaptar-se al seu particular context d’aplicació i fundar-se en criteris científics rigorosos i coneguts. A l’empara del principi de no discriminació i de les exigències pròpies de l’equitat, els sistemes de IA no poden ni han de sustentar-se sobre aplicacions o resultats discriminatoris o esbiaixats, així com han de compatibilitzar-se amb el dret a la intimitat i la protecció de dades personals. Per part seva, la transparència esdevé principi essencial sense el qual manca de sentit parlar, en propietat, d’un eficaç control sobre la seva aplicació.

En altres paraules, la IA, en un Estat social i democràtic de Dret, ha de ser “fiable”. Això fa que la seva implementació, des de l’òptica del procesalista, ens situï davant la imperiosa necessitat (en particular davant la seva accepció “forta” o “decisional”) de replantejar, racionalment, la correcta comprensió de les garanties processals que integren l’anomenat model de judici just o procés amb totes les garanties (art. 24 CE).

El dret de defensa i el principi de contradicció exigeixen no sols la publicitat dels algorismes utilitzats, sinó també que els advocats i, especialment, els Jutges i Magistrats, puguin continuar desenvolupant “la seva creativitat” en el procés. De fet, només quan aquests puguin ponderar les circumstàncies del cas concret, mitjançant una adequada persuasió racional de la prova practica en el procés, serà possible fugir de les injustícies pròpies d’una justícia extremadament estandarditzada en funció de les dades utilitzades pel model de IA aplicat.

D’altre banda, la presa en consideració del dret a la intimitat, de la protecció de dades personals i de la presumpció d’innocència han de fer-nos també recapacitar sobre aquells perills que engloba un escenari en què la IA, derivada del Big Data, gestiona milions de dades emmagatzemades en funció de la selecció del seu creador. Selecció, que ningú ho oblidi, també pot correspondre, en detriment de tan anhelada neutralitat, a uns certs “biaixos ideològics” o “patrons de sospita”.

Models de IA que, en qualsevol cas, hauran de ser compatibles amb el respecte al contingut complex del dret fonamental a la tutela judicial efectiva (en particular, pel que fa a l’exigència que les sentències han de ser fàcticament motivades i jurídicament fundades), així amb una correcta interpretació, garantista, del dret al recurs.

Dit això, en ple segle XXI manca de sentit obviar, com “negacionistes”, que la IA ha arribat per a quedar-se entre nosaltres. Una cosa ben diferent, no obstant això, és caure en l’extrem contrari de deixar-se “abduir”, avui dia (les coses poden canviar en ocasió dels avanços científics i tecnològics), per una justícia de “caixer automàtic” i substitutiva del “jutge humà”. La IA, tret que ens vulguem enganyar en una autocomplaença més aviat pròpia d’un Dret Processal de “ciència-ficció”, no solucionarà, d’un cop de ploma, tots aquells problemes i disfuncions que són pròpies del nostre actual model de justícia. Figues d’un altre paner és, per contra, que la seva utilització instrumental, com a auxili del jutge humà, resulti una mica més que convenient i útil.

Que el jutjador pugui comptar amb “ingredients algorítmics” no vol dir, per tant, que la motivació pugui venir donada pel “fred” resultat de la valoració probatòria enfrontada pel “jutge robot”, sinó que aquesta hauria de continuar sent, al meu entendre, fruit del pensament humà (això sí, ajudat, amb clar reforç de la seva fiabilitat, per sistemes de naturalesa computacional). Admetre el contrari suposaria atorgar patent de cors a la generalització d’una nova espècie de les motivacions “per relationem” (fins i tot més onerosa que la que ja es constata fa anys per mor de l’aplicació, injustificada, de la tècnica del “copia i enganxa”), així com prioritzar una suposada eficiència processal (visió economicista del procés) per sobre de la justícia del cas concret i l’obligat respecte dels drets fonamentals (i entre ells, en particular, de les garanties processals bàsiques).

Al meu judici, no és el nostre sistema de drets fonamentals el que ha d’adaptar-se a la realitat derivada de la intel·ligència artificial, sinó que és l´ esmentada IA la que ha d’ajustar-se a les exigències que ens imposa a tots el respecte dels drets fonamentals. En aquesta línia, sembla encertat el tenor de la Carta de Drets Digitals, elaborada pel Govern espanyol (d’acord amb el declarat i projectat en aquest terreny per la Unió Europea). Això és així, perquè entre aquests drets fonamentals de contingut digital s’incorpora no sols el dret a no veure’s sotmès a una decisió basada únicament en processos automatitzats, sinó també el dret a impugnar les decisions automatitzades i a sol·licitar, per extensió, la supervisió i intervenció humana sobre les mateixes en el cas concret.

El problema no és tant si un robot pot o no substituir a un jutge humà (de fet, ja existeixen experiències que demostren, amb millor o pitjor funcionament, que això és factible), sinó decidir si aquesta opció acabarà per definir una societat més justa. No fos que sota l´ “encant” de la ciberindustria del procés, la revolució digital, la intel·ligència artificial o la robotització de la justícia, acabi per obrir-se una “finestra” a noves formes de “dictadura digital” residenciades en les elits i en les quals aquestes no tinguin el més mínim interès en desenvolupar, per exemple, al fil de la responsabilitat civil, el concepte de “personalitat electrònica” o, en el seu cas, explorar les vies per a determinar un adequat control del “programa” i el seu “controlador”.

El repte és majúscul, perquè ens juguem en bona part la nostra llibertat i seguretat. En qualsevol cas, el futur immediat de la IA, si més no pel que fa a la seva utilització judicial, passarà per aconseguir un gens senzill equilibri entre l’eficiència processal i el respecte de les garanties bàsiques. Equilibri en què els enginyers, físics, químics, metges o biòlegs tenen molt a dir, però en el qual no serà sensat silenciar, per interessos més o menys injustos, allò que puguin aportar els juristes.

Per llegir o documentar-se més sobre el tema pot consultar-se:

Deja tu comentario

Tu dirección de email no será publicada. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Aquest lloc utilitza Akismet per reduir els comentaris brossa. Apreneu com es processen les dades dels comentaris.