Gigantes das redes sociais permitiram mais conteúdo nocivo nos feeds dos usuários, mesmo depois que pesquisas internas sobre os seus algoritmos mostraram que a indignação impulsionava o engajamento, disseram à BBC pessoas que são ou foram ligadas a essas empresas.
Mais de uma dúzia de denunciantes e pessoas de dentro das empresas expuseram à BBC como essas companhias assumiram riscos de segurança em questões como violência, chantagem sexual e terrorismo, enquanto disputavam a atenção dos usuários.
Um engenheiro da Meta, empresa que controla as redes sociais Facebook e Instagram, descreveu como recebeu orientação da direção da empresa para permitir mais conteúdo nocivo "limítrofe", que inclui misoginia e teorias conspiratórias, nos feeds dos usuários para competir com outra rede social, o TikTok.
"Eles basicamente nos disseram que era porque o preço das ações estava em queda", disse o engenheiro.
Um funcionário do TikTok deu à BBC acesso raro aos painéis internos da empresa com reclamações de usuários, além de outras evidências de como funcionários foram instruídos a priorizar vários casos envolvendo políticos em detrimento de uma série de denúncias de publicações nocivas envolvendo crianças.
As decisões estavam sendo tomadas para "manter um relacionamento forte" com figuras políticas e evitar ameaças de regulação ou proibições, e não por causa dos riscos aos usuários, disse o funcionário do TikTok.
Os denunciantes que falaram no documentário da BBC Inside the Rage Machine (Dentro da Máquina de Raiva, em tradução livre) oferecem uma visão detalhada de como o setor reagiu após o crescimento explosivo do TikTok, cujo algoritmo altamente envolvente de recomendação de vídeos curtos transformou as redes sociais, deixando rivais correndo para tentar acompanhar.
Matt Motyl, pesquisador sênior da Meta, disse que o concorrente do TikTok criado pela empresa, o Instagram Reels, foi lançado em 2020 sem proteções suficientes. Pesquisas internas compartilhadas com a BBC mostraram que os comentários no Reels apresentavam prevalência significativamente maior de bullying e assédio, discurso de ódio e violência ou incitação à violência do que em outras partes do Instagram.
A empresa investiu na contratação de 700 funcionários para expandir o Reels, enquanto equipes de segurança tiveram negada a contratação de dois especialistas para lidar com a proteção de crianças e de mais dez profissionais para ajudar na integridade das eleições, disse outro ex-funcionário sênior da Meta.
Motyl, da Meta, entregou à BBC dezenas do que descreveu como "documentos de pesquisa de alto nível mostrando todo tipo de danos aos usuários nessas plataformas". Entre eles, havia evidências que mostravam que o Facebook estava ciente de problemas causados por seu algoritmo.
Segundo um estudo interno, o algoritmo oferecia aos criadores de conteúdo um "caminho que maximiza os lucros às custas do bem-estar de sua audiência", e "o atual conjunto de incentivos financeiros que nossos algoritmos criam não parece estar alinhado com nossa missão" de aproximar as pessoas ao redor do mundo.
O documento afirma que o Facebook pode "escolher permanecer inativo e continuar alimentando os usuários com conteúdo de qualidade duvidosa, mas isso só funciona por algum tempo".
Em resposta às alegações dos denunciantes, a Meta disse: "Qualquer sugestão de que ampliamos deliberadamente o conteúdo nocivo para ganho financeiro é incorreta." O TikTok afirmou que essas são "alegações fabricadas" e que a empresa investe em tecnologia que impede que o conteúdo nocivo seja visualizado.
Os algoritmos são uma "caixa-preta", cujo funcionamento interno é difícil de examinar, disse Ruofan Ding, que trabalhou como engenheiro de aprendizado de máquina no desenvolvimento do mecanismo de recomendação do TikTok de 2020 a 2024.
Ele afirmou que era difícil construir sistemas como esse que fossem completamente seguros. "Não temos controle sobre o próprio algoritmo de aprendizado profundo [deep learning]."
Segundo ele, os engenheiros não prestam muita atenção ao conteúdo das publicações. "Para nós, todo o conteúdo é apenas um ID, um número diferente."
Ele disse que dependiam das equipes de segurança de conteúdo para remover publicações nocivas e impedir que fossem promovidas pelo algoritmo. Segundo ele, essa relação entre as equipes é como a de diferentes grupos que trabalham em partes de um carro.
"Há a equipe responsável pela aceleração, pelo motor, certo? Então esperamos que a equipe que trabalha no sistema de freios esteja fazendo um bom trabalho", disse.
Mas Ding disse que, enquanto o TikTok atualizava seu algoritmo quase toda semana para ganhar mais espaço no mercado, ele passou a ver mais conteúdo "limítrofe" ou publicações problemáticas aparecendo depois que os usuários já estavam há algum tempo assistindo a vídeos.
Conteúdo limítrofe é um termo usado por empresas de redes sociais para descrever publicações prejudiciais, mas que não violam as regras, como posts misóginos, racistas, sexualizados e teorias conspiratórias.
Adolescentes disseram à BBC que as ferramentas para indicar que não querem ver conteúdo problemático não funcionam e que ainda recebem recomendações de violência e discurso de ódio nas principais redes sociais.
Em um caso extremo, outro adolescente, Calum - hoje com 19 anos - disse que havia sido "radicalizado pelo algoritmo" desde os 14 anos. O algoritmo lhe mostrava conteúdo que o deixava indignado e o levou a adotar visões racistas e misóginas, afirmou.
Os vídeos "me energizavam, mas não de um jeito bom", disse ele. "Eles só me deixavam muito irritado. Refletiam muito a forma como eu me sentia por dentro, que eu estava com raiva das pessoas ao meu redor."
Especialistas da polícia antiterrorismo no Reino Unido, que analisam milhares de publicações nas redes sociais todos os anos, dizem ter observado um aumento e uma "normalização" de posts antissemitas, racistas, violentos e de extrema direita nos últimos meses.
"As pessoas estão mais dessensibilizadas à violência no mundo real e não têm medo de compartilhar suas opiniões", disse um dos agentes.
'Deletem o TikTok'
Ao longo de vários meses em 2025, a BBC conversou regularmente com um integrante da equipe de confiança e segurança do TikTok, a quem estamos chamando de Nick. A BBC teve acesso ao painel interno da empresa no laptop dele, que mostrava os casos analisados por sua equipe e como respondia a eles.
"Se você se sente culpado diariamente por causa do que é instruído a fazer, em algum momento começa a pensar: devo dizer algo?", disse Nick.
Ele acrescentou que o volume de casos que estavam avaliando era grande demais para acompanhar e garantir a segurança dos usuários, deixando adolescentes e crianças especialmente em risco.
Segundo ele, cortes e a reorganização de algumas equipes de moderação - nas quais algumas funções estão sendo substituídas por tecnologia de inteligência artificial - reduziram a capacidade da empresa de lidar de forma eficaz com esse tipo de conteúdo.
Conteúdos ligados a "terrorismo, violência sexual, violência física, abuso e tráfico" parecem estar aumentando, disse o denunciante.
A realidade do que o aplicativo recomenda e das medidas tomadas contra conteúdos nocivos é "muito diferente, em muitos aspectos, do que as plataformas dizem ao público", acrescentou.
Nick mostrou à BBC evidências de que o TikTok tratava alguns casos relativamente simples envolvendo políticos como prioridade maior para revisão pela equipe de segurança do que vários casos envolvendo danos a adolescentes.
Em um exemplo, um político que havia sido ridicularizado ao ser comparado a uma galinha recebeu prioridade sobre um jovem de 17 anos que relatou ser vítima de cyberbullying e falsificação de identidade na França, e sobre uma jovem de 16 anos no Iraque que disse que imagens sexualizadas, supostamente dela, estavam sendo compartilhadas no aplicativo.
Ao falar sobre o caso no Iraque, Nick disse: "Se você olha o país de onde vem esse relato, é de altíssimo risco porque envolve um menor e chantagem sexual. Mas, você pode ver aqui, a prioridade não é alta."
Nick também mostrou exemplos de publicações que incentivavam pessoas a se juntar a grupos terroristas ou a cometer crimes e que não haviam sido classificadas como prioridade máxima.
Quando a equipe de confiança e segurança pediu para priorizar casos envolvendo jovens em vez de casos políticos, disse o denunciante, eles foram orientados a não fazer isso e a seguir tratando os casos de acordo com a identificação que haviam recebido.
Segundo Nick, isso acontece porque, em sua avaliação, a empresa se preocupa menos com a segurança das crianças do que em manter um "relacionamento forte" com políticos e governos, para evitar regulações ou proibições que poderiam prejudicar seus negócios.
Nick disse que, quando ele e outros funcionários levantaram algumas dessas preocupações com a direção, não houve receptividade, porque eles "não são expostos a esse conteúdo no dia a dia".
O conselho de Nick aos pais cujos filhos usam o TikTok é: "Apaguem o aplicativo. Mantenham as crianças o mais longe possível dele pelo maior tempo possível."
O TikTok afirmou que rejeita a ideia de que conteúdo político tenha prioridade sobre a segurança dos jovens e disse que a alegação "deturpa fundamentalmente a forma como os seus sistemas de moderação funcionam".
A equipe da qual Nick faz parte integra um sistema de segurança mais amplo, com várias equipes responsáveis por analisar denúncias sobre conteúdos. O TikTok afirmou: "Fluxos de trabalho especializados para determinadas questões não resultam na redução da prioridade de casos envolvendo segurança infantil, que são tratados por equipes dedicadas dentro de estruturas paralelas de revisão."
Um porta-voz do TikTok disse que as críticas "ignoram a realidade de como o TikTok permite que milhões de pessoas descubram novos interesses, encontrem comunidade e sustentem uma economia vibrante de criadores".
A empresa afirmou que contas de adolescentes têm mais de 50 recursos e configurações de segurança pré-definidos que são ativados automaticamente. Também disse que investe em tecnologia para impedir que conteúdos nocivos sejam exibidos, mantém regras rígidas de recomendação e oferece ferramentas para que os usuários personalizem sua experiência.
'Fazer o que for possível para recuperar o atraso'
Em 2020, a disputa entre algoritmos ficou mais intensa quando o Instagram lançou o Reels, como resposta ao TikTok, que ganhou enorme popularidade durante a pandemia de Covid-19.
Matt Motyl, que trabalhou como pesquisador sênior no Facebook e em sua empresa sucessora, a Meta, a partir de 2021, disse que essa foi a tentativa da companhia de "imitar" o "produto único" lançado pelo TikTok.
Entre 2019 e 2023, seu trabalho envolvia "realizar experimentos em larga escala com, às vezes, centenas de milhões de pessoas" — que muitas vezes "não tinham ideia" de que isso estava acontecendo — para testar como o conteúdo era exibido nos feeds.
"Os produtos da Meta são usados por mais de três bilhões de pessoas. Quanto mais tempo elas passam na plataforma, mais anúncios a empresa vende e mais dinheiro ganha. Mas é muito importante fazer isso da forma certa, porque quando isso não acontece, coisas muito ruins podem acontecer", disse.
Quando ao Reels, Motyl disse que a estratégia era avançar o mais rápido possível, independentemente do impacto sobre os usuários. Segundo ele, havia um "dilema comum entre proteger as pessoas de conteúdo nocivo e o engajamento".
De acordo com um estudo que ele compartilhou com a BBC, a Meta estava tendo dificuldades para evitar danos no Reels após seu lançamento. O documento sugere que publicações no Reels tinham maior prevalência de comentários nocivos do que posts no feed principal do Instagram: 75% a mais de bullying e assédio, 19% a mais de discurso de ódio e 7% a mais de violência ou incitação à violência.
Ele afirmou que havia um "desequilíbrio de poder", porque as equipes de segurança precisavam da aprovação das equipes responsáveis pelo Reels para lançar novos recursos que aumentassem a segurança dos usuários. Segundo Motyl, essas equipes tinham "incentivo para impedir o lançamento dessas ferramentas, porque o conteúdo tóxico gera mais engajamento do que conteúdo normal".
Brandon Silverman, cuja ferramenta de monitoramento de redes sociais Crowdtangle foi comprada pelo Facebook em 2016, participou de discussões em alto nível nesse período e disse que o CEO Mark Zuckerberg estava "muito paranoico" com a concorrência.
"Quando ele percebe que há concorrência, não mede esforços nem dinheiro", disse Silverman.
Ele afirmou que, nesse período, viu equipes de segurança lutando para conseguir aprovação para contratar poucos funcionários, enquanto a empresa priorizava a expansão do Reels. "Ao mesmo tempo, outra equipe disse: 'Acabamos de conseguir 700 pessoas para o Instagram Reels'. Eu pensei: ok", afirmou.
Um ex-engenheiro da Meta, a quem estamos chamando de Tim, disse que, enquanto a empresa tentava competir com o TikTok, passou a permitir mais conteúdo nocivo limítrofe na plataforma. Segundo ele, sua equipe trabalhava para reduzir esse tipo de conteúdo, até que o "posicionamento de negócios" da empresa mudou.
"Você está perdendo para o TikTok e, portanto, o preço das suas ações estava caindo. As pessoas começaram a ficar paranoicas e reativas e passaram a pensar: precisamos fazer tudo o que pudermos para recuperar o atraso. Onde podemos conseguir ganhar 2% ou 3% de receita no próximo trimestre?", disse Tim.
Ele afirmou que a decisão de deixar de limitar conteúdos possivelmente nocivos, mas que não eram ilegais e geravam engajamento dos usuários, foi tomada por um vice-presidente sênior da Meta que, segundo ele, respondia diretamente a Mark Zuckerberg.
Na época em que o Facebook dizia ser apenas um "espelho da sociedade", documentos internos compartilhados com a BBC por Motyl, o pesquisador sênior, revelam como a empresa sabia que estava amplificando conteúdo que deixava as pessoas irritadas e até incitava danos.
Os documentos explicam que conteúdos sensíveis — como publicações ligadas a crenças morais ou que incentivam violência — tendem a gerar mais reação e engajamento na plataforma, especialmente quando provocam indignação.
"Como esse conteúdo gera muito mais engajamento, nossos algoritmos passam a entender que os usuários gostam dele e querem ver mais", afirma o estudo.
Silverman disse que, no início, a liderança da Meta parecia não saber como lidar com o conteúdo tóxico na plataforma e que houve um período em que a empresa estava "genuinamente introspectiva".
Mas, segundo ele, essa posição "começou a se consolidar em uma espécie de postura defensiva". A atitude passou a ser a de que "não somos responsáveis por toda a polarização na sociedade", afirmou.
"Ninguém está dizendo que vocês são responsáveis por toda a polarização. Estamos dizendo apenas que vocês contribuem para isso, e provavelmente de maneiras que poderiam evitar. Com algumas mudanças, essa contribuição poderia ser menor", afirmou Silverman.
Um porta-voz da Meta negou as acusações feitas pelos denunciantes. "A verdade é que temos políticas rigorosas para proteger os usuários em nossas plataformas e fizemos investimentos significativos em segurança ao longo da última década", afirmou.
A empresa também disse que "fez mudanças reais para proteger adolescentes online", incluindo a introdução de um novo recurso chamado Teen Accounts, "com proteções integradas e ferramentas para que os pais gerenciem a experiência de seus filhos adolescentes".