Instagram, el popular sitio de redes sociales propiedad de Platforms, ayuda a conectar y promover una vasta red de cuentas dedicadas abiertamente a la comisión y compra de contenido sexual de menores, según investigaciones de The Wall Street Journal e investigadores de la Universidad de Stanford y el Universidad de Massachusetts Amherst.
Aunque fuera de la vista de la mayoría en la plataforma, las cuentas sexualizadas en Instagram son descaradas sobre su interés. Los investigadores descubrieron que Instagram permitía a las personas buscar hashtags explícitos como #pedowhore y #preteensex y los conectaba a cuentas que usaban los términos para anunciar la venta de material sexual infantil. Dichas cuentas a menudo afirman que son administradas por los propios niños y usan identificadores abiertamente sexuales que incorporan palabras como «pequeña zorra para ti».
Las cuentas de Instagram que ofrecen vender material sexual ilícito generalmente no lo publican abiertamente, sino que publican «menús» de contenido. Ciertas cuentas invitan a los compradores a encargar actos específicos. Algunos menús incluyen precios de videos de niños haciéndose daño a sí mismos e “imágenes del menor realizando actos sexuales con animales”, encontraron investigadores del Observatorio de Internet de Stanford. Al precio justo, los niños están disponibles para «reuniones» en persona.
Los obstáculos técnicos y legales hacen que determinar la escala completa de la red sea difícil de medir con precisión para cualquier persona fuera de Meta.
Debido a que las leyes sobre el contenido sexual infantil son extremadamente amplias, investigar incluso la promoción abierta del mismo en una plataforma pública es legalmente delicado.
Las cuentas de prueba creadas por investigadores que vieron una sola cuenta en la red recibieron de inmediato recomendaciones «sugeridas para usted» de supuestos vendedores y compradores de contenido sexual infantil, así como cuentas que se vinculan a sitios de intercambio de contenido fuera de la plataforma. Seguir solo un puñado de estas recomendaciones fue suficiente para inundar una cuenta de prueba con contenido que sexualiza a los niños.
Al igual que con la mayoría de las plataformas de redes sociales, el núcleo de las recomendaciones de Instagram se basa en patrones de comportamiento, no en hacer coincidir los intereses de un usuario con temas específicos. Este enfoque es eficiente para aumentar la relevancia de las recomendaciones y funciona de manera más confiable para las comunidades que comparten un conjunto limitado de intereses.
En teoría, esta misma estrechez de la comunidad de pedófilos en Instagram debería facilitar que Instagram mapee la red y tome medidas para combatirla. Documentos previamente revisados por el Journal muestran que Meta ha realizado este tipo de trabajo en el pasado para suprimir las redes de cuentas que considera dañinas , como las cuentas que promueven la deslegitimación electoral en los EE. UU. después de los disturbios del 6 de enero en el Capitolio.
Al igual que otras plataformas, Instagram dice que recluta a sus usuarios para ayudar a detectar cuentas que están infringiendo las reglas. Pero esos esfuerzos no siempre han sido efectivos.
A veces, los informes de usuarios sobre desnudez que involucran a un niño quedaron sin respuesta durante meses, según una revisión de decenas de informes presentados durante el último año por numerosos defensores de la seguridad infantil.
A principios de este año, un activista contra la pedofilia descubrió una cuenta de Instagram que afirmaba pertenecer a una niña que vendía contenido sexual para menores, incluida una publicación que decía: “Esta adolescente está lista para ustedes, pervertidos”. Cuando el activista denunció la cuenta, Instagram respondió con un mensaje automático que decía: “Debido al gran volumen de informes que recibimos, nuestro equipo no ha podido revisar esta publicación”.
Un portavoz de Meta reconoció que Meta había recibido los informes y no actuó en consecuencia. Una revisión de cómo la compañía manejó los informes de abuso sexual infantil encontró que una falla de software impedía que se procesara una parte sustancial de los informes de los usuarios, y que el personal de moderación de la compañía no estaba aplicando adecuadamente las reglas de la plataforma, dijo el portavoz. Según las pautas internas de la plataforma, las sanciones por violar los estándares de la comunidad generalmente se aplican a las cuentas, no a los usuarios o dispositivos. Debido a que Instagram permite a los usuarios ejecutar varias cuentas vinculadas, el sistema facilita la evasión de una aplicación significativa.
En algunos casos, los sistemas de recomendaciones de Instagram socavan directamente los esfuerzos de su propio personal de seguridad. Después de que la empresa decidiera tomar medidas enérgicas contra los enlaces de un servicio de transferencia de archivos cifrados conocido por transmitir contenido sexual infantil, Instagram bloqueó las búsquedas de su nombre.
Las sugerencias de hashtag impulsadas por IA de Instagram no recibieron el mensaje. A pesar de negarse a mostrar resultados para el nombre del servicio, la función de autocompletar de la plataforma recomendó que los usuarios probaran variaciones en el nombre con las palabras «boys» y «CP» agregadas al final.
Las sugerencias de Instagram estaban ayudando a reconstruir la red que el propio personal de seguridad de la plataforma estaba tratando de desmantelar.
Un portavoz de Meta dijo que actualmente se están construyendo sus sistemas para evitar tales recomendaciones. Levine calificó el papel de Instagram en la promoción de cuentas y contenido pedófilo como inaceptable.