Dret i intel·ligència artificial: atenció especial als biaixos, la privacitat i la protecció de dades

La incorporació de la intel·ligència artificial (d’ara endavant, IA) comporta un nombre infinit de beneficis, però també és necessari considerar que aquesta tecnologia implica múltiples reptes i riscos que el dret ha de revisar i supervisar, com a garant de la correcta ordenació de les relacions entre les persones. Així, el principal risc és el de generar algun tipus de discriminació. Pertorbar drets fonamentals generant un tracte desigual és un dels elements principals sobre els quals treballar des d’un prisma jurídic. I és que qualsevol decisió provinent de la intel·ligència artificial que provoqui dues respostes diferents en els subjectes és susceptible de ser reconduïda als paràmetres de la discriminació.

La intel·ligència artificial pot tenir biaixos [1] i discriminar les persones si les dades i els models d’aprenentatge automàtic utilitzats per a entrenar-la contenen prejudicis o informació errònia. Els sistemes de IA es basen en dades [2] que recol·lecten i analitzen per a «aprendre» i fer tasques de manera autònoma, per la qual cosa si les dades utilitzades per a entrenar una IA contenen informació esbiaixada o prejudicis, és possible que el sistema també reprodueixi aquests biaixos i discrimini unes certes persones o grups. Per exemple, si s’entrena un sistema de IA amb dades que mostren una major quantitat de delictes comesos per persones d’un determinat grup ètnic, és possible que el sistema «aprengui» a discriminar aquest grup en particular. És important tenir en compte que els biaixos en la IA poden tenir conseqüències greus en àmbits com la seguretat, la salut i la justícia, per la qual cosa és fonamental garantir que les dades i els models utilitzats per a entrenar a la IA siguin objectius i lliures de prejudicis.

Font: https://unsplash.com/es/fotos/uPXs5Vx5bIg

Hi ha diversos mètodes per a detectar biaixos en la intel·ligència artificial. Un dels més comuns és l’anàlisi estadística de les dades utilitzades per a entrenar a la IA, per a identificar possibles biaixos en els patrons de dades i en la forma en què el sistema processa i utilitza aquesta informació. També es poden utilitzar tècniques d’avaluació de la qualitat dels models d’aprenentatge automàtic, que permeten mesurar l’acompliment del sistema en tasques específiques i comparar-lo amb el d’altres sistemes o amb el dels humans. Una altra manera de detectar biaixos en la IA és mitjançant la realització de proves o experiments que permetin avaluar el comportament del sistema en diferents situacions i contextos, i verificar si existeixen diferències en el seu acompliment en funció de variables com el gènere, la raça, l’edat o l’orientació sexual de les persones que interactuen amb ell. En general, és important tenir en compte que la detecció de biaixos en la IA requereix d’un enfocament sistemàtic i rigorós, que inclogui la participació d’experts en l’àrea i la utilització d’eines i tècniques adequades.

Per part seva, la discriminació algorítmica és un fenomen que es produeix quan sistemes de IA o algorismes utilitzats per a prendre decisions automatitzades discriminen de manera indirecta o inconscient a unes certes persones o grups. Això pot ocórrer quan les dades utilitzades per a entrenarla IA o per a desenvolupar els algorismes contenen informació esbiaixada o prejudicis, o quan els models d’aprenentatge automàtic utilitzats reprodueixen o reforcen aquests biaixos. La discriminació algorítmica pot tenir conseqüències greus en àmbits com la salut, l’educació, la justícia i l’ocupació, i pot afectar l’equitat i la justícia social. Per això, és important abordar la discriminació algorítmica mitjançant la identificació i correcció dels biaixos en les dades i els models utilitzats per a entrenar a la IA, així com mitjançant la implementació de mesures i regulacions que garanteixin l’ús responsable i ètic d’aquestes tecnologies.

A més, la introducció de biaixos també genera situacions discriminatòries [3], per la qual cosa no sols abordem la qüestió des dels resultats, sinó també des de la generació de les dades a estudiar per arribar a aquestes inferències [4]. El que ens condueix a la necessitat d’estudiar la manera d’aconseguir aquestes dades relatives a les actuacions personals per a poder analitzar la informació i donar una resposta des d’un punt de vista tecnològic. La privacitat i la protecció de dades guardaran, per tant, una relació directa amb l’afectació de drets fonamentals en els resultats obtinguts.

D’acord amb l’exposat, la tasca del dret serà la de generar les eines pertinents perquè l’imparable avanç tecnològic es desenvolupi en harmonia amb el respecte dels drets dels ciutadans. Una tecnologia que evolucioni en el si de la discriminació anirà ampliant progressivament la bretxa dels tractes discriminatoris, per la qual cosa pal·liar aquest minvament serà un dels problemes, si no ho és ja, als quals el dret haurà de fer front. La posició contrària a l’expansió de la realitat tecnològica no és ni positiva ni realitzable. L’assimilació de paràmetres que emprin la intel·ligència artificial de manera ètica i respectuosa amb el dret és el camí per a continuar evolucionant en la realitat tecnològica que ens rodeja i que, necessàriament, serà la pedra angular del futur desenvolupament de les societats.

UNESCO, 2021. Recomanació sobre l’ètica en intel·ligència artificial. UNESCO.

[1] Un biaix és una inclinació o tendència a favor o en contra d’alguna cosa o algú, que pot afectar la forma en què es percep o es tracta una situació o una persona. Els biaixos poden ser conscients o inconscients, i poden influir en les nostres decisions i accions de manera negativa.

[2]D’aquí ve que una qüestió matriu sigui la relativa a la protecció de dades, que respon al conjunt de mesures i polítiques que tenen com a objectiu garantir que es tracti de manera responsable i segura la informació personal de les persones. Això inclou la seva recopilació, ús, emmagatzematge i eliminació, entre altres aspectes. La protecció de dades és important perquè ajuda a preservar la privacitat de les persones i evita l’ús indegut de la seva informació personal.

[3] Així ho ha plantejat la UNESCO (2021) en la seva Recomanació sobre l’Ètica de la IA: “S’han d’evitar els biaixos que poden incorporar i exacerbar, la qual cosa pot arribar a provocar discriminació, desigualtat, bretxes digitals i exclusió i suposar una amenaça per a la diversitat cultural, social i biològica, així com generar divisions socials o econòmiques; la necessitat de transparència i intel·ligibilitat del funcionament dels algorismes i les dades amb els quals han estat entrenats; i el seu possible impacte en, entre altres, la dignitat humana, els drets humans i les llibertats fonamentals, la igualtat de gènere, la democràcia, els processos socials, econòmics, polítics i culturals, les pràctiques científiques i d’enginyeria, el benestar animal i el medi ambient i els ecosistemes”. (p. 1)

[4] Un trist exemple és el dels algorismes de reconeixement facial de diferents empreses tecnològiques com Google, *Amazon i Facebook que van confondre als homes de raça negra amb diversos tipus de primats. Aquest error va ser corregit mitjançant l’eliminació de les bases de dades de totes les imatges de simis i l’oferiment de disculpes públiques per la falta de prolixitat en la construcció de l’algorisme i configuració de la base de dades.

Deja tu comentario

Tu dirección de email no será publicada. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Aquest lloc utilitza Akismet per reduir els comentaris brossa. Apreneu com es processen les dades dels comentaris.