Las grietas de las redes dejan pasar vídeos de menores en actitud sexual

Lara Malvesí |

Barcelona (EFE).- Los vídeos que muestran a menores en actitud sexual en discotecas se han viralizado en las últimas semanas pese a que TikTok debería haber controlado su difusión atendiendo a sus propias reglas, han contado a EFE moderadores de la red así como el experto de la Universitat Oberta de Catalunya (UOC) Ferran Lalueza.

Vídeos virales en Twitter y TikTok como el del caso de la discoteca Waka de Sant Quirze del Vallès (Barcelona), en el que aparecían dos menores practicando sexo oral, o las imágenes menos explícitas de un grupo de adolescentes de entre 14 y 17 años «perreando» con movimientos sexuales en el local Pampara de Les Corts (Barcelona).

En ambos casos, por mostrar sexo explícito o una actitud claramente sexual, por un lado, y tratarse de menores, por otro, nunca deberían haberse podido distribuir en redes sociales como TikTok, si bien el propio sistema de moderación de la misma facilita que puedan estar «ahí fuera» y ser «capturados» por algún usuario antes de que un moderador lo elimine.

El algoritmo no es infalible

Si bien el propio algoritmo de la red social puede identificar elementos prohibidos de forma automática y bloquearlos, la mayoría de vulneraciones de las normas las identifican personas que «moderan» el contenido y lo eliminan, dejando registro de las normas contravenidas y, en su caso, alertando a las autoridades.

Entre tanto, sin embargo, pueden pasar segundos o minutos en los que las reproducciones y registros de las imágenes son incontables, explica a EFE un moderador de TikTok.

«Una de las mayores dificultades prácticas es saber si quien aparece en una imagen es menor o no. A no ser que lo diga claramente, es muy ambiguo», reconoce otro compañero.

En el último caso viral, el de la discoteca Pampara, las imágenes de jóvenes «perreando» fueron eliminadas por la propia cuenta del local tras su publicación, en la que incluso etiquetaban a la fiesta «Pamparatardes+14», el nombre de la sesión vespertina para jóvenes de entre 14 y 17 años que aún no pueden acceder a las fiestas nocturnas con venta de alcohol.

Sin embargo, hasta que se borraron dio tiempo a que el vídeo fuera reproducido más de un millón y medio de veces.
Y eso que cuando el algoritmo detecta que puede haber contenido sexual ya prioriza su moderación como urgente en el «chat» que comparten los moderadores para actuar rápidamente ante este tipo de contenidos u otros, como mensajes de odio.

Imagen de archivo de una persona observando la pantalla de un móvil
Imagen de archivo de una persona observando la pantalla de un móvil. EFE/Nacho Gallego

El algoritmo es ciego

El profesor de Ciencias de la Información y de la Comunicación de la UOC Ferran Lalueza ha explicado que lamentablemente las redes sociales funcionan como espirales de transmisión potencial, «tanto para lo positivo como para difundir vídeos cuya distribución puede ser en sí misma delictiva, como el vídeo de Waka».

«Cuando el algoritmo detecta que algo en sus primeros segundos tiene mucha actividad y visualizaciones se encarga de mostrarlo a un número cada vez mayor de personas, fomentando su propia viralización», explica.

«Aunque me gustaría pensar que el grado de madurez digital es elevado y los usuarios van a frenar la propagación de este tipo de contenido y denunciarlo, en su caso, desgraciadamente la evidencia demuestra que no», ha añadido.

El experto apunta que la viralización de este tipo de contenido no le ha «sorprendido» pues la moderación de contenidos «se ha flexibilizado mucho» y «se han reducido los recursos de control más artesanal, o humano, en favor de los automatizados».

Carencias en las barreras a los menores

Más allá, ha llamado la atención sobre el hecho de que algunas redes sociales como Twitter -que tuvo un papel relevante en la propagación del delictivo vídeo de Waka- han reducido el número de personas que filtran sus vídeos como consecuencia de los recortes de plantilla tras la entrada de la nueva directiva liderada por Elon Musk.

«Aunque redes como TikTok intentan mejorar, la realidad es que sus sistemas de inteligencia artificial no son infalibles y pueden ser burlados con más o menos facilidad y para cuando los controladores humanos detectan el vídeo ya es demasiado tarde», ha reflexionado.

También es mejorable, señala, el sistema de estas redes para evitar que los menores de 14 años se abran una cuenta o que los adolescentes que lo hacen no reciban contenido etiquetado como para mayores de edad por el algoritmo.

Con todo, en su esfuerzo de control, la red social china informó en su último informe de transparencia sobre los datos de 2021 que había cerrado 7,3 millones de cuentas sospechosas de pertenecer a menores de edad.

Otras redes que han despertado la «preocupación» de la Fiscalía de Barcelona por el aumento de contenido de menores sin consentimiento son Only Fans, Admire Me o My fan page.

Se trata de fotos que los menores cuelgan en abierto en las redes sociales y que delincuentes usan sin permiso para subirlas con la intención de que los usuarios paguen por ese contenido.

El pasado septiembre, la Fiscalía señaló que por esta «novedad» de tipología delictiva habían recibido en los últimos seis meses medio centenar de denuncias.