PUBLICIDADE

'Após trabalhar como moderadora na web, parei de apertar a mão das pessoas - fiquei com nojo da humanidade'

Roz Bowden trabalhava no MySpace, visualizando o que havia de mais nocivo na internet, nos primórdios das redes sociais.

15 out 2018 - 11h10
(atualizado às 11h21)
Compartilhar
Exibir comentários
Quem trabalha com moderação de conteúdo está exposto ao pior que a internet tem a oferecer
Quem trabalha com moderação de conteúdo está exposto ao pior que a internet tem a oferecer
Foto: Facebook / BBC News Brasil

"Quando saí, não apertei a mão de ninguém durante três anos. Eu tinha visto o que as pessoas fazem e o quão repugnantes elas são. Não queria tocar em ninguém. Fiquei com nojo da humanidade."

A declaração de Roz Bowden se refere à época em que ela era moderadora de conteúdo no MySpace, visualizando o que havia de mais nocivo na internet, para impedir que outros usuários fossem expostos a esse tipo de material.

A função que ela desempenhava ganhou ainda mais relevância à medida que as redes sociais ampliaram sua influência e que o conteúdo gerado pelos usuários se tornou parte crucial da web.

O Facebook conta atualmente com 7,5 mil moderadores de conteúdo, que trabalham 24 horas por dia ao redor do mundo. Com frequência, eles se deparam com fotos e vídeos que mostram atos de perversão, abuso sexual infantil, atrocidades, decapitações, torturas, estupros e assassinatos.

Um deles está processando a rede social por trauma psicológico, após assistir a milhares de horas de conteúdo tóxico e perturbador - Selena Scola afirma que o Facebook e a Pro Unlimited, empresa que a rede social contratou para realizar o trabalho, não conseguiram manter sua segurança emocional.

Ela afirma que sofre agora de transtorno de estresse pós-traumático, como resultado do que viu online.

É provável que o caso jogue uma luz sobre o mundo sombrio da moderação de conteúdo e, antes de tudo, levante questões sobre até que ponto as pessoas deveriam fazer esse tipo de trabalho.

Sarah Roberts, professora assistente da Universidade da Califórnia, nos Estados Unidos, que estudou moderação de conteúdo nos últimos oito anos, acredita que as redes sociais podem estar levando a uma crise de saúde mental.

"Não há estudos publicados que analisem as ramificações de longo prazo deste trabalho", disse ela à BBC.

"Estamos nos referindo a um grande número de pessoas - que está crescendo exponencialmente - e coletivamente devemos nos preocupar com as consequências."

"Não há plano de suporte no longo prazo quando esses moderadores de conteúdo saem. Espera-se apenas que eles sejam incorporados de volta ao tecido social."

Antes de trabalhar no MySpace, de 2005 a 2008, Bowden atuava na área de finanças. E ficou feliz ao voltar a seu campo inicial de atuação, quando o trabalho na rede social se tornou pesado demais.

"Eu só olho para números agora", disse ela em uma conferência no ano passado.

Mas Bowden se pergunta muitas vezes o que aconteceu com a equipe que ela ajudou a treinar e supervisionar nos primórdios das redes sociais.

"O que aconteceu com todas aquelas pessoas que assistiram a cabeças sendo arrancadas no meio da noite? É importante saber."

No MySpace, uma das primeiras redes sociais, os moderadores já viam tanto conteúdo nocivo quanto hoje
No MySpace, uma das primeiras redes sociais, os moderadores já viam tanto conteúdo nocivo quanto hoje
Foto: BBC News Brasil

Quando ela começou, trabalhando no turno da noite no MySpace, havia pouca orientação sobre como desempenhar a função.

"Nós tivemos que criar as regras. Tínhamos que assistir a pornografia e nos perguntar se calcinha fio dental era nudez. Perguntar quanto sexo é sexo demais para o MySpace. Fazíamos as regras à medida que concordávamos", conta.

"Devíamos permitir que uma pessoa corte a cabeça da outra em um vídeo? Não, mas e se for um desenho animado? É razoável Tom e Jerry fazerem isso?"

Também não havia políticas de apoio emocional, embora ela orientasse a equipe:

"Tudo bem levantar e dar uma volta, não há problema em chorar. Só não vomitem no meu andar."

E quando se tratava de olhar para o conteúdo, ela dava o seguinte conselho:

"Desfoque o olhar e você realmente não vai ver."

Ajuda psicológica

No ano passado, o Facebook descreveu em seu blog os moderadores de conteúdo como "os heróis não reconhecidos que mantêm o Facebook seguro para todos nós".

Mas admitiu que o trabalho "não é para todos" e que só contrata pessoas "que serão capazes de lidar com os inevitáveis desafios que o papel representa".

Apesar da promessa de assistência, a rede social terceiriza grande parte deste trabalho, mesmo de funcionários, como Scola, que trabalham nas sedes da empresa em Mountain View e Menlo Park, nos EUA.

Roberts acredita que é uma maneira de se eximir da culpa.

"Esse tipo de trabalho é muitas vezes terceirizado na indústria de tecnologia. Isso traz economia de custos, mas também permite a eles um nível de distanciamento organizacional quando há casos inevitáveis como esse".

À medida que mais gente compartilha conteúdo online, o trabalho de moderação se torna mais relevante
À medida que mais gente compartilha conteúdo online, o trabalho de moderação se torna mais relevante
Foto: Getty Images / BBC News Brasil

O Facebook oferece um treinamento prévio a todos os moderadores para explicar o que é esperado da função - eles praticam pelo menos 80 horas com um instrutor, usando uma réplica do sistema, antes de serem lançados ao "mundo real".

A empresa também emprega quatro psicólogos clínicos, e todos os revisores de conteúdo têm acesso a suporte de saúde mental.

Peter Friedman dirige a LiveWorld, empresa que fornece há 20 anos moderadores de conteúdo a companhias como a AOL, eBay e Apple.

Ele disse à BBC que os funcionários raramente, ou nunca, recorrem à terapia que é oferecida.

Roberts não se surpreende:

"É uma pré-condição da função que eles consigam lidar com isso, e eles não querem que o empregador saiba que não estão conseguindo."

"Os funcionários sentem que podem ser estigmatizados se usarem esses serviços", completa.

Os moderadores de conteúdo raramente buscam ajuda psicológica, diz executivo
Os moderadores de conteúdo raramente buscam ajuda psicológica, diz executivo
Foto: Getty Images / BBC News Brasil

A LiveWorld já acumula mais de um milhão de horas de moderação, e Friedman dá alguns conselhos sobre como desempenhar bem a função:

O Facebook admite, por sua vez, que a revisão de conteúdo na escala que está fazendo hoje "é um território não mapeado".

"Até certo ponto, temos que desvendá-lo à medida que caminhamos", afirma em seu blog.

BBC News Brasil BBC News Brasil - Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização escrita da BBC News Brasil.
Compartilhar
TAGS
Publicidade
Publicidade