Cinc claus per a entendre la transparència algorítmica en el sector públic

Hem de començar amb una pregunta: és necessari apostar per la transparència algorítmica? La resposta sembla ser senzilla: sí. No es tracta, naturalment d’un posicionament sense fonament, sinó que és, en la nostra opinió, el corol·lari d’una anàlisi més complexa. En aquest sentit, proposem cinc idees que esperem que permetin entendre la importància i l’abast que té la transparència en l’àmbit dels sistemes algorítmics i d’intel·ligència artificial (IA). En aquest espai ens dedicarem a l’àmbit del sector públic. Diferent podria ser el cas del sector privat. Val la pena recordar que l’Administració Pública ha de vetllar i garantir l’interès públic sotmetent-se a les obligacions que imposa la Llei i per descomptat la Constitució Espanyola. Així, tot sembla apuntar que a l’Administració Pública se li exigeix un plus de rigor i, naturalment, com al sector privat, actuacions que no vulnerin els Drets fonamentals de les persones.

  1. Algoritme i intel·ligència artificial.

És necessari especificar les possibles diferències entre un sistema algorítmic i un basat en IA. Sovint, es tendeix a utilitzar les dues expressions com a sinònimes, no obstant això, encara que, evidentment, mantinguin unes certes connexions entre elles, cadascun d’aquest sistemes té peculiaritats tècniques i de funcionament que el fan únic. Adquireix una certa importància aquesta caracterització ja que haurem de verificar si apostem per la transparència de tots dos sistemes o no. Tots i totes tenim un telèfon mòbil i molt probablement en més d’una ocasió utilitzem la calculadora per a fer alguna operació. Quan fem això, utilitzem un algoritme, és a dir, una seqüència finita i ordenada d’operacions bàsiques de càlcul que permeten resoldre un determinat problema. Diferent és el cas d’un sistema de IA, que és l’àmbit de la ciència computacional que, secundant-se sobre un conjunt de dades robustes, permet crear màquines amb capacitat per pensar, raonar i resoldre problemes, tal i com ho faria la intel·ligència humana.

Ara bé, trobem naturalment sistemes de IA que integren algorismes amb altes capacitats de càlcul, que permeten transformar els inputs del sistema en un output, és a dir, en un resultat que en el cas de la IA utilitza o pot utilitzar una xarxa neuronal artificial que permet replicar i a vegades “millorar” les actuacions humanes.

La transparència algorítmica hauria d’afectar tots dos sistemes, encara que, és en el cas dels sistemes algorítmics de IA on la necessitat és més evident. En tot cas es tracta d’apostar per la transparència algorítmica en relació amb tots aquells sistemes que poden afectar directament o indirectament els drets dels individus.

  1. Definir la transparència algorítmica.

L’Estratègia Nacional d’Intel·ligència Artificial (ENIA), estableix que ha de ser garantida “la traçabilitat dels sistemes de IA. Això significa garantir que les decisions executades per sistemes algorítmics puguin ser auditades, avaluades i explicades per les persones responsables”.

Podem parafrasejar la definició de la ENIA i al mateix temps anar més enllà.

En la nostra opinió, la transparència algorítmica identifica el principi segons el qual els factors que intervenen en les decisions preses pels algorismes haurien de ser visibles, cognoscibles, auditables i explicables, a les persones que utilitzen, regulen, i són afectades pels sistemes que empren aquests algorismes.

En aquest sentit assenyalem quatre patrons que si es compleixen farien, almenys en abstracte, que el sistema fos transparent. Així és: perquè la “màquina” sigui transparent, aquesta —i l’entitat que la utilitza— haurà de garantir que l’algorisme (i potser el codi font), es trobi en un lloc de fàcil accés per ser consultat, per exemple en registres específics (visible i cognoscible), que estigui sotmès a control de funcionament periòdic, tant intern com extern (auditable) i que, així mateix, es pugui explicar en un llenguatge més natural possible (explicable).

  1. La transparència algorítmica i els biaixos

La transparència algorítmica contribueix a reduir els biaixos. En la nostra opinió existeixen almenys dues classes de biaixos: directes i indirectes. Els primers tenen a veure amb la reproducció de determinats patrons dels qui programen els sistemes. Com a individus tenim ideals socials, polítics, relacionals que ens fan construir la nostra manera de veure la societat i participar en ella. Això és inevitable, tanmateix, sobretot quan això podria afectar als altres, hauria de quedar-se en el nostre fur interior. Quan això no ocorre, ens trobem amb possibles biaixos de gènere, de raça o d’estatus social que alimentaran un sistema algorítmic que finalment produirà resultats esbiaixats.

En segon lloc, els biaixos indirectes, complementaris als directes, es produeixen a causa de l’opacitat de la màquina. Això es fa més evident en un sistema de IA avançat on la màquina auto-aprèn i llança resultats que ni els seus creadors, a vegades, són capaços d’explicar.

Encara que el “risc zero” no existeix, és possible apreciar unes certes mesures que podrien pal·liar els problemes descrits. Una d’elles consisteix en l’autocontrol i en la supervisió externa. Els sistemes algorítmics han d’estar sotmesos a continus controls i a proves funcionals que permetin realitzar les adaptacions necessàries perquè es compleixi el requisit bàsic de proporcionalitat, és a dir utilitzar una màquina que permeti obtenir el millor resultat segons els coneixements dels quals es disposa. Sembla que la futura Agència Espanyola de Supervisió de la Intel·ligència Artificial (AESIA), podria col·laborar a complir aquest objectiu.

  1. Transparència algorítmica i igualtat

Si anteriorment hem tractat els biaixos des d’un punt de vista més tècnic —i social—, ara, hem d’assenyalar que els biaixos mantenen relació amb la (des)igualtat jurídica —i real—. No es tracta de discriminacions de poc impacte, tot el contrari, fem referència a les discriminacions que la IA pot produir en els Drets fonamentals que així mateix produeixen desigualtat. En un recent treball, Presno Linera aprofundeix precisament en els “Drets fonamentals i la Intel·ligència artificial” (2022). Així, la transparència dels sistemes instrumentals que col·laboren a prendre decisions que afecten els Drets fonamentals, es fa preponderant a l’hora de garantir l’estat constitucional de dret. En la nostra opinió, a major transparència li correspon major igualtat i viceversa. Això és fàcilment visible en el cas holandès, on vam tenir coneixement que milers de famílies van ser víctimes de l’extrema duresa d’un sistema algorítmic en matèria de subvencions. Va ser demostrat que el sistema perjudicava especialment les famílies migrants produint un biaix que conduïa a una manifesta desigualtat de tracte de determinats col·lectius. El Govern, llavors, va haver de dimitir en bloc. Així, el principal problema va ser i és, garantir la imparcialitat dels sistemes utilitzats. És ben sabut que a la parcialitat li correspon la desigualtat. Per això, la transparència contribueix a preservar la imparcialitat i, per tant, la igualtat.

  1. ¿Què ens depara el futur?

Què dirien Alan Turing o Isaac Asimov de l’actual ChatGPT? Probablement que ens van avisar d’aquesta gran transició digital.

Ara bé, mentre l’Administració Pública segueix en procés de transformació —de l’administració analògica a l’electrònica—, ja estem parlant i estudiant l’administració 4.0 basada en IA. El que sí és clar és que aquest procés de transformació és imparable. Això significa que en l’actualitat podem fer una “fotografia” de la realitat i albirar alguns escenaris futurs. En aquest sentit, assenyalem el següent:

  1. Normatives marc. Coneixem la Proposta de Reglament del Parlament Europeu i del Consell pel qual s’estableixen normes harmonitzades en matèria d’intel·ligència artificial que, al ser de directa aplicació en els Estats membres, representarà la primera norma jurídica específica en l’àmbit europeu. Això es traduirà en la introducció d’una regulació que en principi ha de ser entesa en defensa dels drets dels ciutadans europeus.
  2. És d’esperar que amb el temps es produeixin normes nacionals. En l’actualitat ja existeixen estratègies i documents d’interès a través dels quals s’intenta establir una espècie de xarxa de soft law que permeti engendrar normes vinculants i amb els seus propis règims sancionadors. Així mateix, no ha de descartar-se la producció de normes sectorials sobre IA. Això es deu a les exigències específiques de la matèria. Hem de considerar que la IA té múltiples camps d’aplicació: sanitari, l’automatització de l’activitat administrativa, la prevenció del frau, el canvi climàtic, en l’àmbit dels robots terapèutics i en l’àmbit de les cures, només per citar alguns relacionats amb el sector públic. Aquestes disciplines necessiten d’una adaptació normativa. Això no pot confondre’s amb l’autoregulació que en cas de realitzar-se es convertiria en un mer codi de conducta que a més comportaria una certa dispersió reguladora en una matèria que en canvi penetra transversalment en diferents disciplines i àmbits
  3. Després d’instaurar el marc legislatiu, és d’esperar que es creïn noves figures directament relacionades amb la tecnologia disruptiva. No ens referim només a nous llocs de treball que hauran de cobrir els que molt probablement es perdran a causa de la introducció de la IA, de les màquines, sinó també a llocs de supervisió. Ens referim, per exemple, a la creació, del Delegat/a de Protecció Algorítmica (DPA) així com al Defensor/a Algorítmic (DONA). En altres paraules, es tracta de figures que a més de fer complir la futura legislació vigent podran assessorar l’entitat en la qual es creen, així com brindar protecció als qui es vegin afectats per la intervenció del sistema de IA
  4. Sembla necessari procedir amb la professionalització de determinades categories professionals. En primis, els empleats públics que hauran de formar-se per poder-se “reciclar” en un àmbit tan disruptiu. Així mateix, si mirem, per exemple, l’àmbit judicial és d’esperar que en un futur pròxim es comencin a crear Fiscalies específiques que s’ocupin de tot allò relacionat amb la IA, el Blockchain, el metavers, la responsabilitat extracontractual de les decisions automatitzades o els problemes que pot produir el deep learning i les caixes negres dels sistemes (black box)
  5. Existeix una certa propensió, si bé encara massa escassa, a apostar pels registres algorítmics. L’article 16.1l. de la Llei 1/2022, de 13 d’abril, de Transparència i Bon Govern de la Comunitat Valenciana, estableix per exemple que: “Les administracions públiques han de publicar (…): La relació de sistemes algorítmics o d’intel·ligència artificial que tinguin impacte en els procediments administratius o la prestació dels serveis públics amb la descripció de manera comprensible del seu disseny i funcionament, el nivell de risc que impliquen i el punt de contacte al qual poder dirigir-se en cada cas, d’acord amb els principis de transparència i explicabilitat”. Aquesta haurà de ser el camí a seguir.

Amb tot, disposem d’un cert avantatge. En la nostra opinió, les prediccions anteriors, sent bastant probables i realistes, ens permeten preparar-nos des de ja per a afrontar en condicions aquests nous escenaris de futur, que seran, els vulguem o no, d’omnipresència de la IA en l’activitat humana.

Bibliografia

ESTRATEGIA NACIONAL DE LA INTELIGENCIA ARTIFICIAL (2020). En: https://portal.mineco.gob.es/RecursosArticulo/mineco/ministerio/ficheros/201202_ENIA_V1_0.pdf  (15 de marzo de 2023)

PRESNO LINERA M.Á. (2022). Derecho fundamentales e inteligencia artificial. Marcial Pons, p. 64 y ss.

Deja tu comentario

Tu dirección de email no será publicada. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Aquest lloc utilitza Akismet per reduir els comentaris brossa. Apreneu com es processen les dades dels comentaris.