Los expertos ante el reto de la protección de derechos

La inteligencia artificial y el ineludible reto de la protección de derechos

Belén Ortiz I Granada (EFE).- Los beneficios de la inteligencia artificial en determinados ámbitos de la vida están hoy fuera de duda, pero su desarrollo se enfrenta a retos pendientes de resolver.

Entre ellos se encuentra la protección de derechos fundamentales, un objetivo en el que la Agencia Española de Supervisión de la Inteligencia Artificial, pionera en Europa, aspira a abrir camino.

El director de la Unidad de Excelencia de Sociedad Digital y catedrático de Derecho Internacional de la Universidad de Granada,

Fernando Esteban, y el profesor y experto de la Comisión Europea en legalidad y ética, Javier Valls, analizan en una entrevista conjunta con EFE el difícil equilibrio de la protección de los derechos en la inteligencia artificial.

Y ambos coinciden de entrada en lo mismo: derechos como el de la privacidad, la libertad, los relacionados con el ámbito laboral y los procesales están en riesgo ante determinados sistemas automáticos, de ahí que la Comisión Europea esté tratando de establecer un marco de regulación que garantice que no se inculquen.

Intromisiones en la privacidad


Valls pone un ejemplo claro de impacto en la privacidad de las personas, el de los asistentes virtuales capaces de entender y procesar el lenguaje humano para ejecutar órdenes.

“Están escuchando todo el rato y se cuelan hasta en el dormitorio. La gente no es consciente de ello”, pero tendrían más cuidado a la hora de utilizarlos, explica, si una simple modificación del aparato permitiese informar a las personas.

“La única manera de avanzar en un marco regulatorio compatible con nuestro sistema de derechos fundamentales -apunta Esteban-, es la regulación de la inteligencia artificial centrada en el ser humano”, que es justamente el enfoque del que parte la Unión Europea.


Éste es diferente de lo que ocurre en países como China, donde la tecnología es usada a veces para restringir libertades, o Estados Unidos, cuya regulación “tiende más a favorecer el mercado que los derechos individuales”, según Valls.

España, pionera en la supervisión de la Inteligencia Artificial


Y en esa tarea, opinan ambos, la Agencia Estatal de Supervisión de la Inteligencia Artificial, cuya sede aspira a albergar Granada, permitiría abrir camino.

Porque, al ser la primera en implantarse en un país europeo, antes incluso de la entrada en vigor del futuro reglamento de la Unión Europea, “aportaría experiencia sobre casos reales que servirían de ejemplo a otros países”, señala Valls.

“Permitiría emitir documentos oficiales elaborados sobre el estudio de casos, y eso es muy importante porque para cualquiera que quiera regular o supervisar en este ámbito, el conocimiento de los problemas y dificultades que han podido existir con anterioridad resulta crucial” en un campo, agrega Esteban, en el que se aprende “a fuerza de tropiezos”.

En opinión de Valls, con la inteligencia artificial ocurrirá al final algo parecido a lo que ocurrió con la irrupción de los coches.
Una tecnología “extremadamente nociva” por los daños personales y medioambientales que genera y porque coarta la libertad de los peatones, pero que sin embargo está ya muy asimilada por la ciudadanía en su día a día.

En determinados ámbitos como el de la medicina, la salud y la seguridad, el uso de la inteligencia artificial deberá generar un mayor nivel de confianza entre los ciudadanos.

De modo que “tengan la garantía de que habrá un respaldo en caso de fallo”. Es lo que se denomina ‘inteligencias artificiales de alto riesgo’, abunda Valls.

El riesgo de los sesgos en la justicia


En cuanto al ámbito de la administración de la Justicia, las máquinas pueden por ejemplo ayudar a los jueces a afinar en la toma de decisiones relacionadas con determinado tipo de reclamaciones.

Incluso hay un tribunal de resolución civil en la Columbia Británica de Canadá que ha sido creado para trabajar con una máquina que permite a los usuarios en litigio hacer un diagnóstico de su caso para conocer cómo deberían afrontarlo, lo que permitiría negociar una solución con la otra parte.

En España, la utilización de la inteligencia artificial en el ámbito judicial es aún incipiente y se está limitando por ahora a la realización de tareas rutinarias como la “anonimización de sentencias judiciales”, explica Esteban.

Los expertos en inteligencia artificial difieren sobre el uso de la tecnología. EFE

Escepticismo

Sin embargo, Valls se muestra un tanto “escéptico” con la utilización de esta tecnología en los sistemas de justicia, y alude en concreto a Veripol, un sistema empleado por la Policía Nacional para detectar denuncias falsas que en su opinión no aporta toda la información necesaria.

Y algo similar ocurre a su juicio con un proyecto dirigido a determinar si las víctimas de violencia de género reciben vigilancia policial o no.

En este caso, relata, la aplicación se basaba en unas preguntas de test que “tenían sesgo porque consideraban que las mujeres que sufren violencia de género con una determinada cualificación académica y un nivel de ingresos mayor nunca se verían en esas situaciones”, cuando este tipo de violencia, recuerda, es transversal.

“El problema es que cada sector jurídico es diferente y tiene unas necesidades y particularidades”, explica Esteban, para quien el reto por tanto es “saber adaptar la construcción de la tecnología a las necesidades concretas de un ámbito concreto”.

Y si hay algo en lo que coinciden ambos expertos es que el plan de gobernanza de todo organismo de supervisión, como el que se implantará en España, no debe estar compuesto únicamente por ingenieros, sino por un equipo multidisciplinar que incluya a profesionales del ámbito jurídico y de la ética. EFE

Edición Web: Violeta Gil