Un espejo refleja una pantalla de ordenador que muestra un código binario. EFE/RITCHIE B. TONGO/ Archivo

La inteligencia artificial, arma y escudo para la desinformación, según Seguridad Nacional

Madrid (EFE).- Las campañas de desinformación se han convertido en un riesgo para la seguridad de los Estados democráticos y sus procesos electorales, y encuentran en la inteligencia artificial (IA) tanto un arma como un escudo, según un informe del Departamento de Seguridad Nacional (DSN).

En un extenso estudio del foro contra las campañas de desinformación presentado este martes en el Centro Superior de Estudios de la Defensa Nacional (CESEDEN), académicos y profesionales de la comunicación y la verificación destacan, entre otras cuestiones, el papel de la IA, en especial la generativa, como potenciador y a la vez como respuesta a la desinformación.

“Tenemos que hacer frente a las campañas de desinformación, la manipulación de la información y las injerencias extranjeras desplegadas por actores hostiles que utilizan el ciberespacio” para realizar una actividad que “impacta en la seguridad nacional” y “pone en riesgo la propia libertad de los ciudadanos”, ha subrayado la directora del DSN, la general Loreto Gutiérrez Hurtado.

Para ello, ha llamado a la cooperación público-privada, multidisciplinar e internacional para el desarrollo de “mecanismos comunes que permitan detectar las posibles amenazas de forma temprana”.

Uso “cada vez más fácil y accesible”

El uso de la IA es “cada vez más fácil y accesible” para generar, publicar y difundir desinformación, señala el informe, que llama la atención sobre las falsificaciones de imágenes, vídeos o audios -los conocidos como ‘deepfakes’- y la creación de noticias falsas. De ahí la dificultad para desarrollar una “respuesta adecuada a la magnitud” de la amenaza.

Sin embargo, las herramientas que emplean la IA también pueden jugar un importante rol en la detección, moderación y alerta temprana ante campañas de desinformación si se “entrenan” adecuadamente.

Por ejemplo, tras mostrarles contenidos previamente identificados como falsos o verdaderos, los modelos de inteligencia artificial pueden “intentar inferir si un contenido nuevo tiene alta probabilidad de ser falso”.

Priorizar el contenido que se trata de verificar

Este tipo de herramientas ya se emplean para priorizar el contenido que se trata de verificar, como la moderación en redes sociales. Aunque hay que tener en cuenta algunas cuestiones, como que un contenido que no es clasificado como falso por estos modelos no es necesariamente verdadero, sino que la IA no ha podido hacer dicha predicción basándose en los modelos con los que fue entrenada.

La IA también puede ayudar en la producción de los desmentidos por parte de periodistas y verificadores, por ejemplo, ayudando a la localización de información real asociada a la publicación falsa o a la visualización de datos abiertos relacionados, apunta el Foro.

“Si la IA se empieza a utilizar masivamente para desinformar, una de las principales herramientas para detectar estos contenidos manipulados tendrá que ser también la IA”, sostiene el informe, que además destaca el papel de los verificadores, ya que la desinformación “depende en muchas ocasiones del contexto y de una serie de matices y circunstancias que una máquina no puede evaluar adecuadamente”.

La desinformación, elemento de guerra y pertenencia al grupo

Tal es la expansión de la inteligencia artificial y su generación de desinformación que se va a convertir en un nuevo “elemento de guerra”, ha asegurado Carlos Galán, profesor asociado de la Carlos III y miembro del Foro.

El estudio, que dedica uno de sus siete capítulos en exclusiva a Rusia, advierte sobre la “estrategia” rusa de desinformación, “integrada dentro de su propio plan de guerra” y que tiene el “claro objetivo” de “hacer daño, especialmente a los países occidentales”, en palabras de Galán.

El Foro también señala la relación entre desinformación y radicalización en el contexto geopolítico actual. En este sentido, la investigadora Sara Degli Esposti ha explicado que, desde la perspectiva de dinámicas grupales y de generación de identidades, “la verdad es irrelevante”.

“Cuando entramos en una dinámica de grupo, nuestra necesidad de pertenecer a ese grupo es tan fuerte que somos muy vulnerables a aceptar y creer medias verdades o falsedades, aunque reconozcamos que esa información que recibimos no es correcta”, ha apuntado.

Para seguir analizando el impacto de las campañas de desinformación en la sociedad, los expertos han abogado por la creación de un Instituto de Investigación sobre el Entorno de Información.