Um novo relatório sugere que o Instagram está disponibilizando “imagens falsas” de crianças e “vídeos adultos abertamente sexuais” para usuários mais jovens.
Em um experimento para determinar quais anúncios o algoritmo da plataforma de propriedade da Meta recomendaria para contas falsas que seguiam “apenas jovens ginastas, líderes de torcida e outros influenciadores adolescentes e pré-adolescentes”, o The Wall Street Journal descobriu que o Instagram “serviu doses chocantes de conteúdo salgado para essas contas de teste”.
As contas falsas se concentraram no serviço Reels de vídeos curtos do Instagram e foram criadas depois de “observar que os milhares de seguidores das contas desses jovens geralmente incluem um grande número de homens adultos, e que muitas das contas que seguiam essas crianças também demonstraram interesse em conteúdo sexual relacionado a crianças e adultos”. “, segundo o Diário.
Uma série de Reels recomendados incluía um anúncio para o aplicativo de namoro Bumble dividido entre um vídeo de “alguém acariciando o rosto de uma boneca de látex em tamanho real” e um “vídeo de uma jovem com um rosto digitalmente obscurecido levantando sua camisa para expor seu midriff”, disse o relatório.
Outra sequência de vídeos exibiu um comercial da Pizza Hut seguido por um vídeo de um homem deitado na cama ao lado de “o que a legenda dizia ser uma menina de 10 anos”.
Outros vídeos que apareceram no teste incluíram uma “criadora de conteúdo adulto” descruzando as pernas para “revelar sua cueca”: uma criança usando um maiô enquanto se grava enquanto posa em frente a um espelho; outro “criador de conteúdo adulto” dando um “movimento de come-hither” e uma garota dançando sedutoramente em um carro para uma “música com letras sexuais”.
Além do conteúdo questionável, o jornal disse que os anúncios que “apareciam regularmente” nas contas de teste incluíam anúncios de aplicativos de namoro, plataformas de transmissão ao vivo com “nudez adulta”, casas de massagem e chatbots de IA “construídos para cibersexo”.
“As regras da Meta devem proibir esses anúncios”, acrescentou o relatório.
Em resposta ao experimento, um porta-voz da Meta disse ao Journal que os “testes produziram uma experiência fabricada que não representa o que bilhões de usuários veem” e se recusou a comentar “por que os algoritmos compilaram fluxos de vídeos separados mostrando crianças, sexo e anúncios”.
Alguns anunciantes como Disney e Bumble disseram que já haviam tomado medidas para resolver o problema com a Meta, enquanto outros, como Walmart e Pizza Hut, se recusaram a comentar.
O relatório vem depois que outra investigação do Journal e pesquisadores da Universidade de Stanford e da Universidade de Massachusetts Amherst descobriu que os serviços do Instagram atendem a pessoas que buscam ver materiais ilícitos, conectando-os a vendedores desse tipo de conteúdo por meio de seu sistema de recomendação.
Os pesquisadores por trás da investigação descobriram que o site de mídia social permitia que os usuários pesquisassem por certas hashtags que os conectavam a contas que anunciavam material de sexo infantil.
Em setembro passado, o Instagram anunciou a decisão da plataforma de suspender o Pornhub depois que um grupo sem fins lucrativos compartilhou suas preocupações sobre a vulnerabilidade das crianças ao tráfico de pessoas e a presença do Pornhub no Instagram.
By CP Staff,