Rebeca Palacios |
Logroño (EFE).- El uso de la Inteligencia Artificial (IA) es un fenómeno «imparable», pero requiere un proceso de «vacunación social» para educar a la población sobre los efectos que tiene esta tecnología en la polarización y la crispación, que pueden suponer «una amenaza para la democracia» si las personas no ejercen su capacidad crítica.
Así lo ha asegurado este viernes a EFE Manuel Armayones, doctor en Psicología y catedrático en Diseño del Comportamiento en la Universitat Oberta de Catalunya (UOC), quien ha ofrecido en Logroño la conferencia inaugural de las XX Jornadas de Psicología en La Rioja, dedicadas a los beneficios, riesgos y dilemas éticos de la IA.

«Está todo yendo más rápido que nuestra capacidad de adaptarnos, pero eso ha pasado con muchas tecnologías», por lo que ha abogado por «hacer un buen uso de la IA y que no sea la IA la que nos utiliza a nosotros».
Ha comparado la IA con un dron, un aparato que puede utilizar la Guardia Civil para llevar medicamentos a una persona atrapada en la montaña sin posibilidad de rescate, pero que también sirve para lanzar bombas.
‘Bots’ como apoyo psicológico
En su ejercicio laboral, los psicólogos tienen que procurar que la IA tenga «un efecto positivo» sobre los ciudadanos, lo que implica aprender nuevas competencias profesionales para atender nuevas situaciones, como por ejemplo, personas que establecen relaciones con ‘bots’ (robots).
Además, se podría aplicar la IA como apoyo en procesos de evaluación psicológica e intervenciones, y aunque ha matizado que «la charla con un ‘bot’ no es terapia, es interacción con una máquina», puede servir de apoyo entre consultas, «siempre bajo supervisión de un psicólogo clínico».

Deserción cognitiva y suspicacia
Armayones ha considerado que esta tecnología ha provocado un proceso de «deserción cognitiva» en algunos usuarios, quienes han optado por «claudicar y dejar de esforzarse, al encomendar muchos procesos a la IA», pero también hay personas que no se fían de algunos contenidos y se ha producido «una crisis de la evidencia», por la suspicacia de que un artículo pueda estar generado por IA.
En este sentido, ha alertado del riesgo de que la IA se extienda al ámbito de la investigación científica, por lo que ha propuesto que, para conseguir una plaza de catedrático en la universidad, no solo se exija la publicación de artículos científicos y se le pida también divulgación, participación en la sociedad civil o un impacto real de sus investigaciones.

En esta nueva era, «lo ‘premium’ van a ser las personas» y, ante el miedo al remplazo laboral de la IA en algunos trabajos, ha augurado que «surgirán nuevas profesiones», como por ejemplo, auditorias psicológicas de los algoritmos, para evaluar si las plataformas cumplen la legislación.
Otra forma de evaluar
Este catedrático ha considerado que, desde el ámbito educativo, los docentes van a tener que cambiar la manera de evaluar a los estudiantes, porque «se da por hecho que van a usar la IA y casi se les debería exigir como una herramienta más».
Por otro lado, ha alertado del peligro de la pérdida de la intimidad y la salvaguarda de la protección de datos, porque al interactuar con la IA se proporciona información personal que «se puede utilizar en cualquier momento contra el usuario».
Las grandes compañías tecnológicas han conseguido que los usuarios entrenen gratis a sus herramientas, «pero si tuvieran que pagar por cada interacción, no tendrían dinero suficiente», por lo que ha pedido a la población «ser un poco críticos y pedir un retorno» a estas empresas.