La popularidad de las redes sociales ha traído consigo una serie de desafíos y preocupaciones en torno a la seguridad de los usuarios, especialmente de los más jóvenes. Un reciente informe de The Wall Street Journal (WSJ) revela un aspecto inquietante de la plataforma Instagram, propiedad de Meta, donde su algoritmo parece estar suministrando un cóctel tóxico de videos a adultos que siguen cuentas de niños en la plataforma.
El equipo de investigación del WSJ realizó pruebas específicas para comprender cómo el algoritmo de Instagram, particularmente en su servicio de videos Reels, selecciona y entrega contenido a usuarios que siguen cuentas de jóvenes gimnastas, porristas y otras figuras adolescentes influyentes. Los resultados fueron impactantes y pusieron de manifiesto una conexión perturbadora entre el algoritmo y el contenido sexual.
La experiencia fabricada de WSJ
El Journal creó cuentas de prueba después de notar que las cuentas de jóvenes influencers a menudo tenían una gran cantidad de seguidores adultos, lo que generaba sospechas sobre posibles intereses lascivos. Al seguir estas cuentas, el algoritmo de Instagram entregó un mix discordante de contenido salaz, incluyendo imágenes subidas de tono de niños y videos para adultos explícitos, junto con anuncios de marcas reconocidas de Estados Unidos.
Entre las recomendaciones del algoritmo se encontraron anuncios de citas junto a videos de contenido sexual y publicidad de marcas como Pizza Hut después de videos inapropiados. El Centro Canadiense para la Protección de la Infancia realizó pruebas similares, obteniendo resultados alarmantemente similares. Ante estas revelaciones, Meta, la empresa matriz de Instagram, se defendió argumentando que las pruebas no representan la experiencia general de los usuarios y destacando las nuevas medidas de seguridad de marca introducidas en octubre.
El informe también destaca la presencia de anuncios de empresas reconocidas, como Tinder, Hims, y hasta The Wall Street Journal, junto a contenido inapropiado. Algunas empresas, como Match, han suspendido la publicidad en Reels en respuesta a las preocupaciones sobre la seguridad y la colocación de anuncios.
Después de que el WSJ contactara a las empresas cuyos anuncios aparecían junto a contenido inapropiado, varias indicaron que Meta estaba investigando y pagaría auditorías de seguridad de marca externas. Sin embargo, algunas, como Match, optaron por cancelar la publicidad en Reels y detener la promoción en plataformas de Meta por completo.
Las pruebas realizadas por este organismo independiente confirmaron los hallazgos del WSJ, mostrando la persistencia del problema. Meta, por su parte, insiste en la eficacia de sus sistemas para reducir el contenido dañino y destaca las inversiones significativas en seguridad y protección de marca.
Desafíos en los algoritmos de recomendación
Expertos en sistemas de recomendación algorítmica señalan que las pruebas del WSJ revelan un problema fundamental: el seguimiento de comportamientos específicos puede llevar a la recomendación de contenido perjudicial. El desafío radica en evitar cambios que reduzcan la participación de los usuarios, al tiempo que se protege a los usuarios de contenido nocivo.
El informe del WSJ destaca que los empleados actuales y anteriores de Meta eran conscientes internamente de la tendencia de los algoritmos de Instagram a agregar contenido de sexualización infantil. La clasificación de un usuario como interesado en un tema específico desencadena la recomendación de más contenido relacionado, incluso si es perjudicial.
Antes del lanzamiento de Reels en 2020, los empleados de Meta ya habían identificado riesgos de seguridad asociados con el producto. A pesar de las advertencias, la compañía no adoptó las recomendaciones para evitar la posible vinculación de videos de niños con contenido inapropiado. La competencia con TikTok parece haber eclipsado las preocupaciones de seguridad.
Persistencia del problema y silencio de Meta
A pesar de que el WSJ informó a Meta sobre los resultados de sus pruebas en agosto, la persistencia del problema se refleja en las pruebas continuas realizadas en los meses siguientes. Meta aún no ha proporcionado un cronograma para abordar la cuestión ni ha explicado cómo restringirá la promoción de contenido inapropiado con niños en el futuro.
Un aspecto particularmente inquietante es la aparición de anuncios de servicios de Meta, como WhatsApp, junto a contenido inapropiado. Este hallazgo resalta la falta de control sobre la colocación de anuncios y plantea preguntas sobre la responsabilidad de la plataforma en la prevención de la explotación infantil.
El informe del WSJ revela una conexión peligrosa entre el algoritmo de Instagram y la entrega de contenido inapropiado a adultos que siguen cuentas de niños en la plataforma. La respuesta de Meta, aunque destaca medidas de seguridad introducidas recientemente, aún plantea interrogantes sobre la efectividad de tales medidas. La seguridad en las redes sociales, especialmente en plataformas dirigidas a un público joven, sigue siendo un área crítica que requiere una atención continua y soluciones efectivas.