Una aproximació a la intel·ligència artificial i la seva incidència en els drets fonamentals

Comencem assumint que no està del tot clar de què parlem quan parlem d’intel·ligència artificial (IA en endavant); així, i per centrar-nos en definicions assumides pel Parlament Europeu, se’ns diu que és “el programari que es desenvolupa emprant una o diverses de tècniques i estratègies i que pot, per un conjunt determinat d’objectius definits per éssers humans, generar informació de sortida com a continguts, prediccions, recomanacions o decisions que influeixin en els entorns amb els quals interactua” (article 3 de la Proposta de Reglament del Parlament Europeu i del Consell pel qual s’estableixen normes harmonitzades en matèria d’intel·ligència artificial (Llei d’intel·ligència artificial) i es modifiquen determinats actes legislatius de la Unió, de 21 d’abril de 2021).

Poc després, en la Resolució del Parlament Europeu, de 3 de maig de 2022, sobre la intel·ligència artificial en l’era digital s’assenyala que “el terme IA és un terme genèric que abasta una àmplia gamma de tecnologies, tècniques i enfocaments antics i nous que s’entén millor sota la denominació de «sistemes d’intel·ligència artificial», que es refereix a qualssevol sistemes automatitzats que sovint a penes han res més en comú d’estar guiats per un conjunt donat d’objectius definits per l’ésser humà, amb diferents graus d’autonomia en les seves accions, i intervenir en prediccions, recomanacions o preses de decisions basades en les dades disponibles; assenyala que, si bé algunes d’aquestes tecnologies ja s’utilitzen de forma generalitzada, unes altres encara estan en fase de desenvolupament o fins i tot són sol conceptes especulatius que poden existir o no en el futur…”

En aquesta mateixa Resolució es recorda una cosa important: hi ha una diferència significativa entre la IA simbòlica, que constitueix el principal enfocament entre els anys cinquanta i els noranta del segle passat, i la IA basada en dades i aprenentatge automàtic, que domina des de l’any 2000. Durant la primera onada, la IA es va desenvolupar codificant els coneixements i l’experiència dels experts en un conjunt de regles que després executava una màquina; en la segona onada, els processos d’aprenentatge automatitzats d’algorismes basats en el processament de grans quantitats de dades, la capacitat de reunir dades procedents de múltiples fonts diferents i d’elaborar representacions complexes d’un entorn donat, i la determinació de patrons van convertir als sistemes de IA en sistemes més complexos, autònoms i opacs, la qual cosa pot fer que els resultats siguin menys explicables; en conseqüència, la IA actual pot classificar-se en molts subcampos i tècniques diferents.

Doncs bé, i seguint en l’àmbit de la Unió Europea, en el primer paràgraf del Llibre blanc sobre la intel·ligència artificial de la Comissió, de 19 de febrer de 2020, es diu que “la IA s’està desenvolupant ràpid. Canviarà les nostres vides, perquè millorarà l’atenció sanitària (per exemple, incrementant la precisió dels diagnòstics i permetent una millor prevenció de les malalties), augmentarà l’eficiència de l’agricultura, contribuirà a la mitigació del canvi climàtic i a la corresponent adaptació, millorarà l’eficiència dels sistemes de producció a través d’un manteniment predictiu, augmentarà la seguretat dels europeus i ens aportarà molts altres canvis que de moment només podem intuir. Al mateix temps, la IA comporta una sèrie de riscos potencials, com l’opacitat en la presa de decisions, la discriminació de gènere o d’un altre tipus, la intromissió en les nostres vides privades o el seu ús amb finalitats delictius”.

Així doncs, la Comissió Europea assumeix alguna cosa que sembla totalment inevitable: que la IA canviarà -l’està fent- les nostres vides i, en conseqüència, aquesta transformació afecta a un gran nombre, sinó a la pràctica totalitat, dels nostres drets fonamentals; vegem alguns exemples.

En primer lloc, és ben conegut que la IA ja s’està aplicant en l’àmbit de les recerques policials i judicials relacionades amb la llibertat personal en la mesura en què es duen a terme prediccions de possibles delictes; així, als Estats Units és cada vegada més freqüent, com explica Cathy O’Neil en el seu llibre Armes de destrucció matemàtica, que els departaments de policia usin programes predictius, com PredPol o CompStat, per desplegar les patrulles en els quadrants de les ciutats identificats a cada moment com més perillosos en funció de la tipologia i la localització dels delictes, així com del moment en el qual es van cometre, és a dir, aquests sistemes no se centren en persones sinó en la geografia i això, en teoria, és aliè a prejudicis de raça o socioeconòmics, una cosa no fútil en matèria de drets fonamentals.

El problema sorgeix quan aquests sistemes es recolzen en dades que poden reflectir, de manera intencionada o no, biaixos en funció de com es registren els delictes, quins delictes se seleccionen per ser inclosos en l’anàlisi o quines eines analítiques s’utilitzen. En particular, aquests programes permeten incorporar el que no són delictes greus (homicidis, assalts…) sinó, més aviat, pertorbacions de l’ordre públic i la seguretat ciutadana (venda de drogues a petita escala, consum d’alcohol al carrer…) i això acaba generant més atenció policial als barris on tals alteracions es produeixen el que, al seu torn, es tradueix en major nombre d’identificacions i detencions, generant així una retroalimentació en la qual, almenys en no poques ciutats dels Estats Units, la geografia és, en paraules d’O’Neil, “un valor substitutiu altament eficaç per la raça”, la qual cosa ens remunta a la famosa “teoria de les finestres trencades”, que postula la relació entre el comportament antisocial i la delinqüència, inclosos els delictes més greus i que ignora, per exemple, els anomenats delictes de “coll blanc”.

És també habitual el recurs a la IA en l’àmbit de justícia per, per exemple, donar suport a la presa de decisions dirigides a tutelar la vida i la integritat de les dones enfront de la violència de gènere. Així, el Sistema de Seguiment Integral en els casos de Violència de Gènere (Sistema VioGén) és l’algorisme que determina a Espanya el nivell de risc d’una víctima d’aquesta violència i les mesures de protecció i constitueix el major sistema del món en aquest àmbit, amb més de 3 milions de casos registrats. Segons la Auditoria-informe de la Fundació Ètiques, al gener de 2022 hi havia 673.912 casos en el sistema, dels quals 69.391 eren casos actius que requerien supervisió policial. El que ens interessa destacar ara és que, segons la esmentada Auditoria, el sistema no és transparent: no es pot accedir a cap dada o informació més enllà del produït pels experts que van participar en la definició del sistema. Ni els auditors externs ni els grups de dones tenen cap mena d’accés. El sistema no ha estat avaluat ni auditat de manera independent i tampoc involucra a les destinatàries, que mai han estat consultades sobre el sistema, ni en la seva fase de disseny ni posteriorment durant les diferents decisions sobre com modificar-ho.

En segon lloc, sembla que entre els drets fonamentals més afectats per l’aplicació de la IA estaran els que garanteixen la protecció de les dades personals i el secret de les comunicacions. Respecte a les dades, en el conegut deslliuro de Shoshana Zuboff L’era del capitalisme de vigilància es fa ressò d’una recerca duta a terme per periodistes de Quartz que, ja en 2017, van posar de manifest que els telèfons Android recollien les adreces de les torres de telefonia mòbil pròximes -fins i tot quan els serveis de localització estaven desactivats- i enviaven aquestes dades a Google. El resultat és que Google tenia accés a dades sobre la ubicació de les persones i els seus moviments que anaven molt més allà d’una expectativa raonable de privacitat del consumidor. La informació així obtinguda s’usava per administrar les notificacions i missatges curts que Google enviava als telèfons Android dels usuaris, la qual cosa li permetia a la companyia rastrejar si una persona amb un mòbil d’aquest tipus o que estigués executant una aplicació de Google havia entrat en una botiga concretar i usar aquesta informació per enviar els anuncis que l’usuari veurà immediatament.

I en relació amb el secret de les comunicacions cal esmentar el recent cas Big Brother Watch i altres c. el Regne Unit, resolt el 25 de maig de 2021 per la Gran Sala del Tribunal Europeu de Drets Humans i que porta causa de les revelacions d’Edward Snowden sobre els programes de vigilància i intercanvi d’informació entre els Estats Units i el Regne Unit. La Gran Sala va concloure per unanimitat que havia existit una violació del dret al respecte de la vida privada i familiar i al secret de les comunicacions però va admetre que l’article 8 del Conveni Europeu de Drets Humans no impedeix recórrer amb caràcter general a la intercepció massiva de les comunicacions per protegir la seguretat nacional o altres interessos essencials contra amenaces externes greus; també que els Estats gaudeixen d’un ampli marge d’apreciació per determinar el tipus de règim d’intercepció que necessiten a aquest efecte. Per contrast, no pot deixar d’esmentar-se el que diu en el seu vot discrepant el jutge Pinto d’Albuquerque, que retreu a la majoria alterar l’equilibri a Europa entre el dret a la intimitat i els interessos de la seguretat pública, ja que avala la vigilància no selectiva del contingut de les comunicacions electròniques i les dades de les comunicacions associades i, la qual cosa és pitjor, l’intercanvi de dades amb tercers països que no tenen un nivell de protecció comparable al dels Estats del Consell d’Europa. “Per a bé o per mal -per malament, al meu entendre-, la sentència del Tribunal aplana el camí cap a un “Gran Germà” electrònic a Europa” (paràgraf 60).

En tercer lloc, i per no estendre’ns molt més, cal esmentar un cas que evidencia els riscos de la IA quan està en joc l’accés a prestacions socials: és l’anomenat “escàndol de les ajudes a la infància” als Països Baixos, que, entre altres reaccions, va originar un Informe de la Comissió de Venècia de 18 d’octubre de 2021.

Com relata la professora Ingrid Leijten, en un context social i polític preocupat per la prevenció del frau, es va promulgar una legislació dirigida a garantir el reemborsament de les ajudes a la infància pagades erròniament. Durant anys, les disposicions pertinents es van interpretar de manera que, en cas de detectar-se una irregularitat, fins i tot anys després de la concessió de l’assignació, calia retornar la totalitat de l’import (a vegades fins a 30.000 euros anuals). Les famílies eren incloses en la llista de “defraudadores”, fins i tot si només es tractava de defectes menors o, en realitat, no hi havia hagut un error seu; rares vegades rebien informació i els recursos davant el màxim tribunal administratiu eren sistemàticament rebutjats, la qual cosa va provocar, a milers de persones, greus problemes financers, psicològics i físics.

D’acord amb el informe de la Comissió de Venècia, les sol·licituds que es consideraven sospitoses se seleccionaven a partir d’un model de classificació de riscos, que era un algorisme que “autoaprendía” a partir d’exemples de sol·licituds correctes i incorrectes. Un dels molts indicadors utilitzats per identificar els casos de frau era la ciutadania i els sol·licitants d’origen estranger eren seleccionats pel sistema per un examen detallat de les seves peticions. Va resultar que el sistema treballava partint de la base que el 80% dels beneficiaris de les ajudes socials eren “dolents” i el 20% eren “bons”, a pesar que tal enfocament significava que fins i tot persones que no havien comès cap infracció serien sancionades. Això es va denominar “enfocament 80/20” o enfocament de grup.

Aquests i molts altres exemples que també podrien esmentar-se sobre la incidència de la IA en els drets fonamentals -els algorismes de les xarxes socials incentiven que els mitjans de comunicació produeixin no tant continguts plurals sinó els que atreguin el trànsit a les seves pàgines web i així rendibilitzar-les més; el funcionament dels algorismes en les plataformes de les xarxes socials i la gran quantitat d’informació personal identificable sobre els individus que està disponible pot utilitzar-se per rastrejar i identificar persones i classificar-les si promouen reunions i manifestacions, la qual cosa podria tenir un efecte desànim sobre l’exercici d’aquestes llibertats- evidencien la necessitat que els Estats socials i democràtics de Dret i institucions com les de la Unió Europea vagin passant de les meres recomanacions ètiques a l’establiment de normes jurídiques que operin com a límits tant enfront de les amenaces de l’ús de la IA per part dels propis poders públics -recordi’s l’esmentat assumpte Big Brother Wacht– com respecte als perills evidents que generen uns ben coneguts actors privats que imposen les seves regles particulars al conjunt dels usuaris i, fins i tot, als propis poders públics que, per exemple, estan disposats a donar prioritat absoluta a la protecció de la propietat algorítmica privada en detriment d’altres drets fonamentals ciutadans, com el dret de defensa enfront d’una acusació penal o la prohibició de discriminació en l’accés a una prestació social.

I és que, com explica Giovanni di Gregorio en el seu llibre Digital Constitutionalism in Europe. Reframing Rights and Powers in the Algorithmic Society, la noció tradicional de la Llei, com a expressió de l’autoritat pública, sembla cada vegada més matisada i competint amb normes (acte)produïdes per actors no estatals i empreses privades d’àmbit mundial. En aquesta perillosa deriva, quan els Estats deleguen en les grans plataformes digitals el control de la publicació de continguts “il·legals” estan delegant-los, de fet, la pròpia definició del que és “il·legal”, la qual cosa, d’una banda, a més, els permet recórrer al còmode instrument de les eines automatitzades de control i, per una altra, fa possible l’eliminació de continguts perfectament legals o el bloqueig espuri d’usuaris sense rendir cap compte.

En suma, i havent arribat l’hora de passar de les recomanacions ètiques a les normes jurídiques, la Unió Europea i els Estats que la integren han d’aprovar un marc normatiu basat en la minimització de dades, la rendició de comptes, la transparència, la no discriminació i l’explicabilidad, sotmetent el desenvolupament, el desplegament i l’ús de la IA als principis de precaució i proporcionalitat.

La Unió Europea, no estant al capdavant del desenvolupament tecnològic de la IA, sembla apostar per ser una referència normativa a escala mundial; així, s’assenyala que “l’establiment del primer marc regulador del món en matèria de IA podria suposar un avantatge per la Unió, com a pionera, per establir normes internacionals de IA basades en els drets fonamentals, així com per exportar amb èxit la «IA de confiança» centrada en l’ésser humà a tothom” (Resolució del Parlament Europeu, de 3 de maig de 2022, sobre la intel·ligència artificial en l’era digital).

Al nostre judici, sembla extremadament optimista pensar que una regulació europea de la IA basada en els drets fonamentals pugui ser “exportable” a les potències tecnològiques en la matèria però també ens sembla innegable que si la Unió Europea aspira a continuar governant-se conforme als valors de la dignitat humana, la llibertat, la igualtat i la solidaritat i en els principis de la democràcia i de l’Estat de Dret (Preàmbul de la Carta de Drets Fonamentals de la Unió Europea) no pot continuar ignorant la necessitat de protegir aquests mateixos drets fonamentals davant els avanços de la robòtica, la IA i les tecnologies connexes.

Deja tu comentario

Tu dirección de email no será publicada. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Aquest lloc utilitza Akismet per reduir els comentaris brossa. Apreneu com es processen les dades dels comentaris.