¿Está la inteligencia artificial libre de caer en la estupidez artificial?

Raúl Casado |


Madrid (EFE).- Hay quien augura que la inteligencia artificial será capaz de traducir idiomas o de escribir mejor que los humanos; de pintar o de crear complejas composiciones musicales; o que las máquinas conducirán o realizarán operaciones quirúrgicas de altísimo riesgo mejor que las personas más cualificadas.

Pero ¿está la inteligencia artificial libre de caer en los mismos errores que los humanos, incluso en la estupidez artificial?; la respuesta es no, y durante los últimos años ya se han registrado casos y se han sucedido los errores; uno de los más sonados: la aplicación que interpretó la imagen de dos personas negras como si fueran dos simios.

¿Está la inteligencia artificial libre de caer en la estupidez artificial?
Imagen de archivo de una robot humanoide un foro de negocios America Business Forum, en Punta del Este (Uruguay). EFE/ Sarah Yáñez-Richards


Capaces de aprender y de pensar, de desarrollar cualidades humanas -como la intuición o la creatividad- las máquinas aprendieron hace casi setenta años a diferenciar entre izquierda y derecha, y desde entonces se han impuesto a campeones mundiales del ajedrez o del póker, reconocen rasgos faciales o la voz, traducen de forma simultánea, conducen de manera autónoma y perfeccionan el diagnóstico médico.

La importancia de que la tecnología no quede al margen de los valores

La inteligencia artificial (IA) será uno de los mejores aliados para afrontar los principales desafíos de la humanidad, pero millones de personas -de forma consciente o no- la utilizan ya de forma cotidiana (navegación, geolocalización, computación o asistentes virtuales) y sus utilidades y aplicaciones son infinitas.

Robótica, redes neuronales, algoritmos, bases de datos inteligentes; utilidades ilimitadas y en medio de las cuales irrumpe el debate sobre la ética de esta tecnología, sobre el riesgo de que acrecienten las distintas brechas que ya existen (geográficas o generacionales) y de que las máquinas puedan llegar a ser completamente autónomas y a desobedecer o incumplir las funciones para las que fueron diseñadas.

Surgen en este contexto los laboratorios de ideas para reflexionar y debatir sobre IA, sobre la ética y sobre la importancia de que las tecnologías no queden al margen de los valores, de que las máquinas estén al servicio de las personas y no al revés y de que la sociedad perciba la IA como una oportunidad y no como una amenaza.

El presidente de We The Humans -un laboratorio de ideas independiente-, Juan Ignacio Rouyet, ha observado que la propia Comisión Europea propone un marco regulatorio de la IA basado en cuatro niveles: desde el riesgo «mínimo» hasta el «inaceptable», y sitúa en este nivel los usos que estarían completamente prohibidos, como que un gobierno use esta tecnología para conocer mejor a un ciudadano.

Una legislación clara para un tratamiento concreto de los datos personales

En declaraciones a EFE, Rouyet ha apuntado que algo tan aparentemente inofensivo como un navegador puede escudriñar datos sobre la personalidad de un individuo y conocer por ejemplo si acude más a librerías o a bares, lo que afecta de una forma directa a la libertad y a la intimidad de la persona.

¿Está la inteligencia artificial libre de caer en la estupidez artificial?
Varias personas en una tienda de telefonía de Madrid en una imagen de archivo. EFE/Javier Lizón

Y en el mismo sentido el investigador Pedro Meseguer ha observado que el anonimato que existía antes se está perdiendo, pero ha incidido en que los «temores» hacia esta tecnología se pueden neutralizar con una legislación clara que determine un tratamiento concreto de los datos personales recogidos por estas aplicaciones y que se haga cumplir por parte de las compañías tecnológicas.

Meseguer, del Instituto de Investigación en Inteligencia Artificial del CSIC, ha subrayado a EFE que, como cualquier otra tecnología, la IA puede ser «neutra» -cita en ese sentido los diferentes usos que se puede hacer del fuego o de la tecnología nuclear-.

El presidente de We The Humans mantiene que se trata de una tecnología «muy poderosa» porque identifica patrones y porque aprende, por lo que sus usos son ilimitados «e insospechados». La IA ha sido capaz -recuerda- de pintar «El próximo Rembrandt», un retrato «al estilo» del pintor neerlandés, cuando aprendió a reconocer sus patrones de pintura; «pero la IA no fue creativa, pintó lo que le dijeron».

¿Está la inteligencia artificial libre de caer en la estupidez artificial?
Una mujer toma el sol mientras mira su ordenador portátil en la Playa de la Malagueta, en Málaga, en una imagen de archivo. EFE/ Jorge Zapata

Profesor en varias universidades, Rouyet mantiene además que las brechas y las desigualdades que provocan las nuevas tecnologías van a ser cada vez mayores, y se pregunta en ese sentido si el dueño y director de Meta, Mark Zuckerberg, está pensando implantar el «metaverso» en Sierra Leona, o si el robot humanoide diseñado por Tesla -cuyo coste rondará los 20.000 dólares- está pensado también para el mercado etíope o si estará al alcance de cualquiera.

El riesgo de delegar decisiones en la inteligencia artificial

Y un riesgo añadido, según el presidente de esta organización: que la IA acabe modificando la conducta humana cuando la persona delega en esa tecnología su autonomía o la toma de decisiones. «Podemos dejar que un coche conduzca, pero también que un sistema decida a quién contratar o a quién condenar».

«Eso es delegar nuestra autonomía, pero no en la inteligencia artificial, sino en manos de quien la ha diseñado», ha manifestado Juan Ignacio Rouyet, y ha asegurado que durante los últimos años ya se han registrado ejemplos claros de resultados incorrectos y de «estupidez artificial».

En la inteligencia artificial «el alimento» son los datos, y si esos datos llevan algún tipo de sesgo el resultado final estará también viciado. «Si en un sistema de valoración de puestos de trabajo, los datos de entrada tienen perfiles de hombres con sueldos más altos que las mujeres, el sistema recomendará sueldos más altos para los hombres», mantiene el responsable de este «laboratorio» y director de Servicios de la consultora tecnológica Quint.

La manera de evitarlo: no permitir que la IA tome decisiones, sino que proponga opciones y conocer cómo las ha seleccionado, «pero que la decisión final dependa siempre de un ser humano».

Pedro Meseguer ha incidido en la importancia de incluir valores éticos en el desarrollo de esta tecnología para evitar que tenga sesgos entre razas o sexos, y se ha mostrado convencido de que cambiará el comportamiento de los humanos, como lo han cambiado antes otras tecnologías -como el coche o el teléfono-, y de que la posibilidad de fallo va a estar siempre presente porque, al igual que los humanos, «la IA no es infalible».