Instagram facilita una «vasta red de pedofilia» en su plataforma, según un informe explosivo

0
woman holding black smartphone

Photo by Tofros.com on Pexels.com

Compartir

«Instagram conecta a los pedófilos y los guía a los vendedores de contenido a través de sistemas de recomendación que sobresalen en la vinculación de aquellos que comparten intereses de nicho», afirma un informe del Wall Street Journal.

Instagram está facilitando grandes redes de pedófilos y tráfico de niños, según un informe explosivo de The Wall Street Journal (WSJ) publicado el 7 de junio.

Investigadores de la Universidad de Stanford y la Universidad de Massachusetts Amherst, junto con el WSJ, investigaron las actividades pedófilas en Instagram y descubrieron que «Instagram no se limita a alojar estas actividades. Sus algoritmos los promueven».

«Instagram conecta a los pedófilos y los guía a los vendedores de contenido a través de sistemas de recomendación que sobresalen en vincular a aquellos que comparten intereses de nicho, encontraron el Journal y los investigadores académicos», señala el informe del WSJ.

Instagram permite a los usuarios buscar hashtags utilizados por pedófilos para conectarse con cuentas que anuncian y venden material sexual infantil, incluidas imágenes, videos y «reuniones» en persona.

Alex Stamos, quien fue director de seguridad de Meta (la empresa matriz de Instagram) hasta 2018 y ahora es el director del Observatorio de Internet de Stanford (SIO), señaló: «Que un equipo de tres académicos con acceso limitado pueda encontrar una red tan grande debería hacer sonar las alarmas en Meta».

«Espero que la compañía reinvierta en investigadores humanos», agregó Stamos.

Según el WSJ, el investigador creó cuentas de prueba que, después de ver una sola cuenta de una red de pedófilos, recibieron instantáneamente recomendaciones de compradores y vendedores de «contenido de sexo infantil».

«Seguir solo un puñado de estas recomendaciones fue suficiente para inundar una cuenta de prueba con contenido que sexualiza a los niños», señala el informe.

Los investigadores de SIO encontraron 405 vendedores de lo que describieron como «material sexual infantil autogenerado», es decir, cuentas que supuestamente son administradas por los propios niños, algunos afirman ser tan jóvenes como de 12 años.

El WSJ escribió que muchas de estas cuentas «muestran a usuarios con cicatrices cortantes en el interior de sus brazos o muslos, y varios de ellos citan abusos sexuales pasados».

«Según los datos recopilados a través de Maltego, un software de mapeo de red, 112 de esas cuentas de vendedor tenían colectivamente 22,000 seguidores únicos», informó el WSJ.

Junto a las cuentas que compran y venden activamente contenido sexual infantil, muchos usuarios de la «comunidad pedófila» comparten memes pro-pedofilia o hablan sobre las posibilidades de acceder a menores.

«Los empleados actuales y anteriores de Meta que han trabajado en iniciativas de seguridad infantil de Instagram estiman que el número de cuentas que existen principalmente para seguir dicho contenido es de cientos de miles, si no millones», escribió el WSJ.

Meta ha enfatizado repetidamente que trabajan para eliminar a estos usuarios. Un portavoz afirmó que eliminaron casi 500,000 cuentas de este tipo solo en enero por violación de su política de seguridad infantil.

Los investigadores de Stanford descubrieron que Meta ha luchado más para eliminar el contenido de sexo infantil que en las plataformas de redes sociales «tanto debido a la débil aplicación de la ley como a las características de diseño que promueven el descubrimiento de contenido de material legal e ilícito».

Los algoritmos de Instagram que determinan qué contenido se muestra a los usuarios funcionan de tal manera que «incluso echar un vistazo al contacto con una cuenta en la comunidad pedófila de Instagram puede hacer que la plataforma comience a recomendar que los usuarios se unan a ella».

Estos algoritmos también han permitido a los usuarios buscar términos pedófilos, a pesar de que reconocen que estos términos de búsqueda podrían estar asociados con material ilegal.

«En tales casos, una pantalla emergente para los usuarios advirtió que ‘estos resultados pueden contener imágenes de abuso sexual infantil’, y señaló que la producción y el consumo de dicho material causa ‘daño extremo’ a los niños», informó el WSJ.

La ventana emergente permitía al usuario ver los resultados de búsqueda de todos modos ofreciendo las dos opciones «Obtener recursos» o «Ver resultados de todos modos».

El informe del WSJ señaló que Meta ha suprimido tales redes de cuentas antes, como las relacionadas con la supuesta «insurrección» después de los eventos del 6 de enero de 2021. Por lo tanto, no debería ser demasiado difícil para el gigante de las redes sociales suprimir el contenido pedófilo si Meta estuviera tan interesado en la protección de la infancia como en la censura de opiniones políticas controvertidas.

Un portavoz de Meta dijo que actualmente se están desarrollando sistemas para prevenir las recomendaciones de contenido sexual infantil.

El jefe del UMass Resue Lab, una organización de investigación que tiene como objetivo prevenir la victimización infantil en línea, Brian Levine, calificó de «inaceptable» la participación de Instagram en la promoción de cuentas y contenido pedófilo.

«Tire del freno de emergencia», instó Levin a Meta. «¿Los beneficios económicos valen la pena los daños a estos niños?»

Fuente LifeSites

Deja un comentario

Descubre más desde PREVENCIA

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo