PUBLICIDADE

No playground digital do Youtube, uma porta aberta para os pedófilos

Sistema de recomendação automática da plataforma, que atrai milhões de visualizações, formou catálogo de vídeos que, segundo especialistas, tem conotação sexual envolvendo crianças

6 jun 2019 - 18h19
(atualizado às 18h25)
Compartilhar
Exibir comentários

Christiane C. não pensou em nada quando sua filha de 10 anos e uma amiga gravaram um vídeo das duas brincando na piscina da sua casa. "É um vídeo inocente, nada importante", disse Christiane que vive em um subúrbio do Rio de Janeiro.

Dias depois a filha veio lhe dizer entusiasmada que o vídeo teve milhares de visualizações. Não demorou muito e já eram 400.000 - um número impressionante para um vídeo de uma criança de maiô de duas peças com sua amiga. "Eu vi o vídeo novamente e fiquei assustada com o número de pessoas que o visualizaram no YouTube, disse Christiane. E ela teve razão em se preocupar.

O sistema de recomendação automática do YouTube, que atrai a maioria das milhões de visualizações na plataforma sugerindo o que os usuários podem assistir em seguida - começou a mostrar o vídeo da menina para usuários que assistiam outros vídeos de pré-adolescentes, crianças parcialmente vestidas. Foi o que concluiu uma equipe de pesquisadores.

O YouTube algumas vezes havia feito uma seleção dos vídeos em seus arquivos, em alguns casos retirando gravações domésticas inócuas de famílias, segundo os pesquisadores. Em muitos casos, seu algoritmo remetia os usuários para os vídeos depois observar que havia conteúdo sexual. O resultado foi um catálogo de vídeos que, segundo especialistas, tem conotação sexual envolvendo crianças.

"É o algoritmo do YouTube que conecta esses canais", disse Jonas Kaiser, um dos três pesquisadores do Berkman Klein Center for Internet and Society, da Universidade de Harvard, que encontrou os vídeos quando estudava o impacto do YouTube no Brasil. "É algo alarmante", disse ele.

O vídeo da filha de Christiane foi promovido pelo sistema do YouTube meses depois de a empresa ser alertada de que havia um problema de pedofilia. Em fevereiro a revista Wired e outras publicações reportaram que predadores estavam usando a seção de comentários dos vídeos de crianças na plataforma para indica-los para outros pedófilos.

Este mês, qualificando o problema de "extremamente preocupante", o YouTube desabilitou os comentários em muitos vídeos com crianças. Mas o sistema de recomendação, que permanece ativo, reuniu dezenas desses vídeos num novo repositório que pode ser visto facilmente e é distribuído para um grande público.

O YouTube nunca foi concebido para atender usuários com interesse sexual em crianças, mas no final, disse Kaiser, seu sistema automatizado consegue deixar que os vídeos sejam visualizados com recomendações que, afirmou, são "alarmantemente sugestivas'".

Os usuários não precisam pesquisar vídeos de crianças para acabarem os visualizando. A plataforma os conduz a eles por meio de uma progressão de recomendações.

Assim, um usuário que assiste a vídeos eróticos recebe recomendações de vídeos de mulheres que são bem mais jovens ou que posam provocativamente usando roupas de crianças. E eventualmente alguns usuários podem ter recomendações de vídeos de crianças de cinco ou seis anos em maiô de banho ou se vestindo.

Um vídeo pode ser perfeitamente inocente, por exemplo, um vídeo doméstico feito por uma criança. Quaisquer cenas reveladoras são efêmeras e parecem acidentais, mas agrupadas ficam óbvias. "Estou aterrorizada com o fato de um vídeo como este entrar nessa categoria", disse Christiane.

Quando o The New York Times alertou o YouTube que o seu sistema estava distribuindo vídeos familiares para pessoas aparentemente com interesse sexual em crianças, a companhia removeu vários, mas deixou muitos outros, alguns aparentemente colocados na plataforma por contas falsas.

O sistema de recomendação também mudou imediatamente, não mais reunindo vídeos reveladores. Segundo o YouTube, este provavelmente foi resultado de ajustes dos seus algoritmos e não uma mudança deliberada de política.

Jennifer O'Connor, diretora de produto do YouTube ligada à área de segurança e proteção, disse que a empresa está comprometida em erradicar a exploração de crianças da sua plataforma e vem trabalhando ininterruptamente desde fevereiro para aprimorar a fiscalização. "Proteger as crianças está no topo da nossa lista", disse ela.

Mas o YouTube não realizou a mudança que, para os pesquisadores, impediria que esses fatos ocorram novamente: desativar seu sistema de recomendações. Segundo a empresa, como as recomendações são o maior impulsionador do tráfego no website, removê-las vai prejudicar os "criadores" que dependem dos cliques. Mas ela pretende limitar as recomendações de vídeos que achar que colocam as crianças em risco.

Segundo o Youtube, seu sistema de recomendação é uma inteligência artificial que vai aprendendo constantemente quais as sugestões que manterão os usuários ligados. Tais recomendações respondem por 70% das visualizações, mas a empresa não revelou os detalhes sobre como o sistema faz sua seleção.

Alguns estudos chegaram à mesma conclusão do que os pesquisadores chamam de "efeito toca de coelho". A plataforma, afirmam, leva os espectadores para vídeos ou assuntos sempre mais extremos que prendem cada vez mais sua atenção. Por exemplo, uma pessoa que assiste a vídeos sobre maquiagem pode ter uma recomendação para ver um vídeo viral sobre mudança completa de visual. Se você assiste a clipes de bicicletas o YouTube pode sugerir um vídeo com cenas de acidentes em corridas de bicicletas.

Kaiser e seus colegas Yasodara Córdova e Adrian Rauchfleisch decidiram testar esse efeito no Brasil. Um servidor abriu os vídeos e depois seguiu as principais recomendações do YouTube para outros. A repetição do experimento milhares de vezes permitiu a eles chegarem a algo semelhante a um mapa de metrô sobre como a plataforma direciona seus usuários.

Eles seguiram as recomendações do YouTube nos canais, páginas que hospedam trabalhos de videomakers. Embora o YouTube diga que esses canais raramente são visualizados, eles oferecem uma maneira de controlar qualquer ruído estatístico gerado pelo modo como a plataforma sugere os vídeos.

Eles acompanharam as recomendações de vídeos com temática sexual e observaram algo que os deixou alarmados: em muitos casos os vídeos se tornavam mais bizarros ou extremos e colocavam uma maior ênfase nos jovens. Vídeos de mulheres discutindo sexo, por exemplo, às vezes levavam a vídeos de mulheres com roupas de baixo ou amamentando, por vezes mencionando sua idade: 19 anos, 18 e até 16. Algumas pediam doações ou sugeriam em vídeos privados onde posariam nuas. Depois de alguns cliques, algumas posavam com roupas infantis.

A partir dali o YouTube repentinamente começou a recomendar vídeos de jovens e crianças parcialmente vestidas e depois uma série quase sem fim de vídeos vindos principalmente da América Latina e da Europa Oriental.

Qualquer vídeo individual pode não ter intenção sexual, talvez seja colocado na plataforma por pais que querem compartilhá-lo com os familiares. Mas o algoritmo do YouTube trata os vídeos como destinado a pessoas com interesses diferentes.

E o número extraordinário de visualizações - às vezes são milhões - indica que o sistema encontrou um público para os vídeos e mantém esse público envolvido.

"Não está claro que nosso motor de recomendações necessariamente o leva para uma ou outra direção", disse O'Connor, a diretora de produto. Mas, disse ela. "quando se trata de crianças, vamos adotar uma posição muito mais conservadora no tocante ao que recomendamos".

As crianças em risco

Muitas pessoas que assistem a vídeos de conotação sexual não vão além disto. Mas alguns vídeos no YouTube incluem links para contas de jovens na mídia social.

"Muitas pessoas que ficam ativamente envolvidas em bate-papos com crianças estão muito inclinadas a convencer as crianças a postarem fotos mais eróticas ou numa atividade sexual e gravarem as imagens em vídeo", disse Rogers.

O YouTube não permite que crianças com menos de 13 anos tenham um canal. E a empresa diz que aplica a política de maneira radical. Para os pais não há soluções fáceis, disse Jenny Coleman diretora da organização Stop I Now que combate a exploração sexual de crianças.

Para realizar este artigo, quando o The Times buscava informações de contatos de pais de crianças nos vídeos, organizações locais foram contatadas.

Depois que uma organização contatou Christiane, a mãe da criança brasileira, ela concordou em falar sobre a experiência. Furiosa, ela ainda tem dificuldade para assimilar o que ocorreu. Ela teve medo de contar ao marido. E disse não entender as práticas do YouTube, e que sua preocupação é manter a filha, agora exposta a um público enorme, em segurança. "A única coisa que posso fazer é proibir minha filha de publicar qualquer coisa no YouTube", disse ela.

Estadão
Compartilhar
Publicidade
Publicidade