Intel·ligència artificial: el repte de la seva regulació reglamentària

El 19 de febrer de 2020, la Comissió Europea va publicar el seu primer Llibre Blanc sobre Intel·ligència Artificial. Com passa sovint, en forma de llibre blanc, es presenta un informe exploratori que sol precedir a una fase de consultes públiques que al seu torn és seguida per la fixació de la Comissió Europea de les àmplies línies de política en una àrea determinada, i fins i tot una proposta reguladora específica. Així, al llibre blanc va seguir immediatament un període públic de consultes obert fins al 19 de maig de 2020. A partir de la lectura del text, és evident que l’establiment de pautes que guien el desenvolupament d’aquesta tecnologia amb un cert nivell d’excel·lència i confiança no és un projecte fàcil o senzill, ja que diferents disciplines, incloent legal, tecnològica, ètica i filosòfica, es creuen en la seva regulació. No obstant això, el text de la Comissió es fa evident que l’adopció de la legislació d’IA ha d´implicar en qualsevol cas, la regulació de tres àrees estretament relacionades, però que operen a diferents nivells: 1) el desenvolupament de la tecnologia; 2) els principis i els drets fonamentals, l’ètica i la filosofia sota la qual es desenvolupa aquesta tecnologia i, 3) la cadena de responsabilitats per l’efecte i l’impacte de la mateixa sobre els tercers.

Pel que fa a la tecnologia, la noció de partida és que la màquina no és intel·ligent (J. Domingo, 2019) i tampoc saps per què has decidit el que has decidit. La intel·ligència implica entendre i, la màquina no entén, però està entrenada amb dades històriques per ajustar els paràmetres dels algoritmes de decisió. El problema és en les massives dades que s’introdueixen per entrenar-la i en l’objectiu de sortida que se li proporciona, en aquest sentit ha de distinguir-se almenys dues formes diferents de entrenament o “aprenentatge” distingides per les màquines. El Machine Learning, definit pel seu pioner Arthur Samuel, és el camp d’estudi de l’aprenentatge automàtic sense ser programat per un humà. El Deep Learning és un subgrup del machine learning i es basa en la creació artificial de xarxes neuronals i la imitació de la capacitat d’autoaprenentatge del cervell humà. L’aprenentatge profund, també anomenat Deep learning, té un desenvolupament molt més específic que el machine learning. Ha aconseguit grans resultats treballant amb grans quantitats d’informació, la qual cosa la fa especialment adequada per a la seva aplicació a estudis científics, accions governamentals i fins i tot negocis. En aquests camps, és molt superior als resultats del machine learning, ja que, segons alguns estudis, pot, per exemple, predir el comportament de molècules defectuoses i fins i tot reconstruir circuits cerebrals i fins i tot anticipar mutacions que puguin ocórrer en les cadenes d’ADN¹. De la mateixa manera, el Deep learning profund ha obtingut resultats rellevants en la comprensió del llenguatge natural i en l’anàlisi de les emocions. En aquesta àrea essencialment tecnològica, el llibre blanc aborda el tema crucial de l’anomenada “opacitat de la IA” o també la “caixa negra”, que no és més que la dificultat de traçar o transparentar els processos d’aprenentatge de les màquines, és a dir, l’explicació de per què els sistemes d’aprenentatge profund arriben a certs resultats i conclusions en la mesura en que el Deep learning consisteix precisament en el aprenentatge autònom per les propies màquines.

En el seu llibre blanc, la Comissió Europea planteja la necessitat de respondre a preguntes, incloent-hi com assegurar que el desenvolupament de la IA compleix amb els requisits mínims i requisits per a la seguretat i la protecció de les persones i els seus drets? o quins mecanismes d’auditoria han d’existir per a algoritmes? que caldrà abordar si volem avançar cap a una regulació sòlida i fiable en aquest àmbit. No obstant això, ateses les dificultats per conèixer el funcionament dels desenvolupaments a la ia, aquestes qüestions no són fàcils de resoldre o estandarditzades, tenint en compte, a més, que es tracta d’una legislació comunitària que es construeix sobre la base de les diferents estratègies d’IA nacionals, i que han de tenir-les en compte.

Quant al vessant ètic i filosòfic de la IA, ha d’efectuar-se una anàlisi profunda de principis mínims de respecte als drets fonamentals dels individus. Apunta Joan Manuel del Pozo (2020) que “la IA presenta un potencial superior a qualsevol altre incident i creació humana i, per tant, hem de sotmetre’l a un nivell superior d’exigència. No podem permetre que acabi girant-se contra l’interès humà, contra allò que considerem indispensable per a una vida digna”. Referent a això l’Informe Europeu del Grup d’Experts d’Alt Nivell de la IA de 2019 establia els principis mínims que ha de reunir el desenvolupament de IA per a ser considerada una tecnologia de confiança, i que en tot cas passen per tenir en compte el respecte als drets fonamentals (respecte a la dignitat, a la llibertat individual, a la democràcia, justícia, no discriminació, respecte als drets dels ciutadans, etcètera) i a principis ètics com el respecte a l’autonomia de l’ésser humà, la prevenció del mal, la justícia o l’equitat i la explicabilidad de les decisions algorítmiques. De fet, el Llibre blanc de la IA de la Comissió Europea, suposa ja un gran avanç en plantejar la direcció cap a l’obtenció de criteris uniformes per a regular, no sols el disseny dels algorismes de IA, sinó també el tractament que es fa de les dades amb els quals s’alimenta.

Quant al vincle de l’ètica amb la IA, segons A. MANTELERO (2020) no hi ha una ètica global que pugui aplicar-se a tots els països i aquesta, mai pot ser global perquè correspon a l’expressió d’un entorn o una comunitat i, per tant, és fins i tot molt complex que pugui arribar-se, si més no, a la consideració d’una ètica global europea.

És en la programació de la IA on els biaixos poden aparèixer, convertint-se est en un terreny en el qual l’ètica cobra especial protagonisme. De la mateixa manera que els éssers humans tenen tots, en major o menor mesura, prejudicis, també aquells que programen la IA poden tenir-los. Per tant, poden aparèixer nombrosos biaixos en un desenvolupament intel·ligent (R.BAEZA-YATES,2020) però el veritable problema radica en el fet que, com s’assenyalava anteriorment, no es fan evidents fins que es cometen -o fins i tot acumulen- errors. Un exemple d’això és la notícia que hem pogut llegir aquesta setmana en la qual tant IBM com Amazon fan públic, una l’abandonament de la comercialització de la tecnologia d’Intel·ligència Artificial mitjançant biometria facial, i l’altra, la prohibició a la policia de l’ús de la seva aplicació Rekognition per considerar que s’estava utilitzant amb objectius poc ètics i amb biaixos racistes. IBM havia dirigit el dia 8 de juny passat una carta al Congrés posant de manifest la imperiosa necessitat d’un ús ètic de la tecnologia sobre la base del dret d’igualtat de tots els ciutadans.

En aquesta línia de buscar solucions més garantistes a l’ús de l’AI, el treball efectuat pel grup de recerca de Ciència de la Web i la Computació Social de la UPF juntament amb la Universitat Tècnica de Berlín i el Centre Tecnològic Eurecat pot obrir noves línies de treball, perquè aquest equip ha creat un algorisme que detecta i mitiga els biaixos d’altres algorismes. El sistema s’ha denominat FA*IR.67. Són eines com aquestes les que podrien ajudar a auditar una aplicació per si pogués haver-hi potencial afectació als drets fonamentals dels ciutadans.

Finalment, quant a la cadena de responsabilitats, la Comissió Europea proposa valorar els impactes d’una IA defectuosa, o amb resultats no desitjats, a partir de la valoració dels riscos. Així, proposa considerar la responsabilitat per capes del desenvolupament de la tecnologia, distingint si es tracta, per exemple, d’un error en l’anàlisi del disseny i la programació de l’algorisme, o del producte final, o dels resultats per la seva manipulació. Es posa moltes vegades com a exemple l’accident provocat per un cotxe autònom. El dubte se centra en determinar sobre qui recau la responsabilitat per l’accident: sobre el desenvolupador de l’algorisme de IA? sobre el venedor del vehicle? O sobre la companyia asseguradora? O potser, haurem de parlar de repartiment de responsabilitats o que aquesta sigui solidària? En un altre ordre de coses, i respecte a l’opacitat dels algorismes, una altra de les qüestions que es planteja és, com podrà valorar una companyia asseguradora quin és el mal potencial d’algorismes que tinguin un alt grau d’opacitat i manquin de la possibilitat de donar explicació de per què s’ha pres una decisió i no altra.

Hi ha científics (R. LÓPEZ DE MÁNTARAS, 2020) que consideren com un dret irrenunciable, sobre qualsevol sistema intel·ligent, la necessitat que qualsevol desenvolupament tingui la capacitat d’explicació dels resultats. Referent a això, la Unió Europea té un projecte molt ambiciós que consisteix a introduir el concepte explicability (article 22 RGPD) per a obtenir explicacions de com ha processat la màquina les dades per a arribar a una conclusió determinada que equivaldria a protegir la democràcia segons J. DOMINGO (2019), en el sentit que, la transparència en la presa de decisions assegura el control i l’exigència de responsabilitats (accountability) que és un principi essencial en democràcia, especialment en l’àmbit de les polítiques públiques i de les accions privades que afecten els ciutadans.

És en aquest punt en el qual culmina el que ve plantejant el Llibre blanc de la IA, i que és la necessitat de certificació dels projectes. El Col·legi d’Advocats de Barcelona va fer una aportació durant la pública consulta del Llibre blanc que consistia en la consideració de la necessitat d’exigir als sistemes basats en Intel·ligència Artificial, requisits sobre la qualitat de les dades i la transparència, així com l’obligació d’informació. Va afegir als anteriors, els requisits sobre la necessitat de poder avaluar la solidesa del sistema i donar la possibilitat de supervisió humana en tots aquells desenvolupaments que poguessin afectar drets no fonamentals. I finalment, va suggerir un nivell d’exigència molt major per a aquells desenvolupaments en IA que poguessin afectar drets fonamentals, als quals se’ls hauria d’exigir la inscripció obligatòria en un registre específicament creat per a això.

A manera de conclusions, el camí de la regulació internacional i nacional de l’ús de la Intel·ligència Artificial promet ser llarg i complex degut a la necessària implicació i coordinació d’enfocaments de diverses disciplines i d’interessos econòmics tant de les grans corporacions com dels propis Governs per l’impacte generalitzat que es produirà sobre tots els sectors productius. El Llibre blanc de la IA de la Comissió Europea és un punt de partida perquè, juntament amb les estratègies nacionals de IA, es produeixi aquest diàleg soci-polític tan necessari per a establir unes bases, el més homogènies i consensuades possible, per a un ús de confiança i segur de la Intel·ligència Artificial.

¹ LeCun. Y, Bengio. Y, Hinton.GE. Deep Learning. 2015. Review Nature. Vol. 521. P. 436 y ss.

Per a profunditzar més:

Publicacions

Meike Zehlike, Francesco Bonchi, Carlos Castillo, Sara Hajian, Mohamed Megahed, Ricardo Baeza-Yates. “FA*IR: A Fair Top-k Ranking Algorithm”

Ramón López de Mántaras. “La ética en la inteligencia artificial”, Investigación y Ciencia, Foro científico, Agosto 2017.

Ricardo Baeza-Yates, Karma Peiró. “És possible acabar amb els biaixos dels algorismes? (1a i 2a part)”, Blog de Karma Peiró, periodista especializada, 17 de junio de 2019.

Informes

Algorithm Watch. Automating society. Taking stock of Automated Decision-Making in the EU

Ethically Aligned Design. A Vision for Prioritizing Human Wellbeing with Artificial Intelligence and Autonomous Systems. IEEE. Advancing Technology for Humanity. 2016

European Civil Law Rules in Robotics. European Parliament. 2016

 

 

 

Deja tu comentario

Tu dirección de email no será publicada. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Aquest lloc utilitza Akismet per reduir els comentaris brossa. Apreneu com es processen les dades dels comentaris.