5 eventos ao vivo

Facebook remove 22,5 milhões de posts com discurso de ódio

Para remover conteúdos, plataforma aumentou detecção a partir de inteligência artificial

11 ago 2020
16h24
atualizado às 16h26
  • separator
  • 0
  • comentários
  • separator

O Facebook anunciou nesta terça-feira, 11, que removeu 22,5 milhões de conteúdos com discursos de ódio nos últimos três meses. Segundo a empresa, a taxa de detecção de publicações do tipo aumentou de 89% no primeiro trimestre para 95% neste segundo trimestre, em função de melhorias na identificação por inteligência artificial. A rede social vem sendo pressionada a mudar sua política de remoção de conteúdos, o que resultou recentemente no boicote publicitário à sua plataforma.

Presidente do Facebook, Mark Zuckerberg. 23/10/2019. REUTERS/Erin Scott
Presidente do Facebook, Mark Zuckerberg. 23/10/2019. REUTERS/Erin Scott
Foto: Reuters

As informações fazem parte do Relatório de Aplicação dos Padrões da Comunidade do Facebook, que foi criado em 2018 e agora passou a ser trimestral — até então, ele era divulgado a cada semestre. A rede social diz que a partir de 2021 convocará uma auditoria externa para revisar os números do relatório.

Em um comunicado publicado nesta terça, Guy Rosen, vice-presidente de integridade do Facebook, disse que a companhia também removeu 8,7 milhões de conteúdos relacionados à terrorismo neste último trimestre. Além da detecção dos conteúdos em inglês, a rede social expandiu a tecnologia para espanhol, árabe e indonésio — não há informações sobre o português.

Quanto ao Instagram, que pertence ao Facebook, a empresa afirma que removeu 3,3 milhões de conteúdos de discurso de ódio no segundo trimestre — no primeiro trimestre, foram 808,9 mil.

A rede social disse que dependeu mais da tecnologia de automação para revisar o conteúdo entre abril e junho, já que tinha menos moderadores nos escritórios devido à pandemia de covid-19. Uma das áreas afetadas foi a remoção de conteúdos relacionados a suicídio, automutilação e exploração infantil. "Dependemos muito de pessoas para analisar esse tipo de conteúdo. Com menos revisores de conteúdo, removemos um número menor de conteúdos relacionados a automutilação e suicídio no Facebook e no Instagram", afirmou Rosen, no comunicado.

Veja também:

Veja como funciona a Bixby, assistente de voz da Samsung
Estadão
  • separator
  • 0
  • comentários
publicidade