Instagram, la red social perteneciente al grupo Meta Plattaforms Inc., estaría promoviendo la pedofilia y la pornografía infantil permitiendo la actividad de cuentas que venden material sexual ilícito y facilitando el acceso a dicho material a través de sus motores de búsqueda.
Así se desprende de una investigación del Observatorio de Internet de Stanford publicada este miércoles por el diario estadounidense The Wall Street Journal (WSJ), que demostró la forma en que Instagram permite localizar etiquetas como ‘#pedowhore’ y ‘#preeteensex’, permitiendo a los pedófilos conectarse a cuentas que vendían pornografía infantil.
With blatant hashtags, a pedophile network has flourished on Instagram. The platform doesn’t merely host these activities. Its algorithms have actively promoted them. https://t.co/3JIsDgOOMm
— The Wall Street Journal (@WSJ) June 7, 2023
Muchas de las cuentas detectadas se hacen pasar por menores, aunque con nombres o descripciones provocativas como «pequeña zorra para ti».
Asimismo, los investigadores alertaron que los usuarios que venden material sexual ilícito no lo publican de forma explícita para no ser detectados por las autoridades, y en cambio, publican ‘menús’ de su contenido que permiten a los compradores elegir el material que deseen o incluso pagar por encuentros con menores.
Meta has started a task force to investigate how its photo-sharing app Instagram facilitates the spread and sale of child sexual abuse material. https://t.co/VnmLx4r14z
— The Washington Post (@washingtonpost) June 7, 2023
¿Cómo lo descubrieron?
Para iniciar la investigación, se utilizaron cuentas de prueba para determinar con qué rapidez podían obtener recomendaciones de cuentas que venden contenido sexual infantil por medio de la función «sugerencias para usted», y rápidamente el algoritmo de Instagram las inundó de contenido que sexualiza a los niños, algunos vinculados a “sitios de intercambio” fuera de la plataforma.
Únicamente por medio de etiquetas, los especialistas de Stanford dieron con 405 vendedores de lo que fue catalogado como material de sexo infantil «autogenerado», o cuentas supuestamente administradas por niños, y algunos afirmaron tener tan solo 12 años.
En muchos casos, Instagram permitió a los usuarios buscar términos que el algoritmo sabía que podrían estar asociados con material ilegal con la siguiente advertencia: «estos resultados pueden contener imágenes de abuso sexual infantil».
Sin embargo, la ventana emergente todavía ofrecía al usuario dos opciones: «obtener recursos» o «ver resultados de todos modos».
Instagram Helps Pedophiles Find Child Pornography and Arrange Meetups with Children (MUST READ)
Researchers discovered that Instagram has become a breeding ground for child pornography.
The Wall Street Journal study found that Instagram enabled people to search hashtags such as… pic.twitter.com/060k59yFKd
— Mario Nawfal (@MarioNawfal) June 7, 2023
Trucos de los depredadores
Para evitar ser descubiertos, los pedófilos se valen de un sistema de emojis “inofensivos” para codificar el contenido sexual: un mapa significaría «MAPA» o «Persona atraída por menores», mientras que el dibujo de una pizza se abreviaría para significar «CP» o «pornografía infantil».
Los investigadores también comprobaron que Instagram no siempre elimina las publicaciones denunciadas por presunta pornografía infantil, sino que optan por recomendar a los usuarios ocultar la cuenta para evitar ver el contenido.
Incluso después de que Instagram prohibió algunas etiquetas relacionadas con la pornografía infantil, las sugerencias impulsadas por inteligencia artificial (IA) encontraron recomendaciones, como probar diferentes variaciones de sus búsquedas y agregar palabras como «chicos» o «CP».
También se aplicó el mismo criterio a cuentas de Twitter, propiedad de Elon Musk, encontrándose 128 cuentas que ofrecían vender abuso sexual infantil, aunque su algoritmo no recomendaba tales cuentas en la misma medida que Instagram, y eran eliminado mucho más rápido que en Instagram. Musk tuiteó el artículo del WSJ calificándolo como «extremadamente preocupante».
Extremely concerning pic.twitter.com/PLz5jrocvv
— Elon Musk (@elonmusk) June 7, 2023
En 2022, el Centro Nacional para Niños Desaparecidos y Explotados de EE.UU. recibió 31,9 millones de denuncias de pornografía infantil, en su mayoría de empresas de Internet, lo que representa un aumento del 47% con respecto a dos años antes.