PUBLICIDADE

Google e Wikipédia querem que IA preveja "tretas" entre editores de conteúdo

14 jun 2018 - 08h29
Compartilhar
Exibir comentários

A Wikipédia é uma plataforma colaborativa que conta com editores voluntários apelidados de "Wikipedians" — e são eles os responsáveis por alimentar a plataforma. Só que esses editores, muitas vezes, acabam brigando feio quando discordam de informações que os outros adicionaram a um artigo. Essa discordância acaba gerando uma "guerra de editores": enquanto um adiciona uma informação ali, o outro vai lá e a altera. Depois, o autor original reedita o artigo, e assim por diante.

Wikipedia
Wikipedia
Foto: Canaltech

Para resolver essas disputas, os wikipedians levam o problema a um fórum de discussão de tal artigo, e essa discussão por vezes se torna acalorada, gerando tretas homéricas. Visando o fim de tanta confusão, pesquisadores da Google, Cornell University e da Wikimedia Foundation estão treinando uma inteligência artificial para prever se uma conversa está prestes a esquentar mais do que deveria.

Um algoritmo de aprendizado de máquina é capaz de detectar sinais de farpas virtuais na primeira troca de mensagens, segundo consta em um artigo que detalha a tecnologia. O objetivo seria criar ferramentas que possam ajudar a conduzir conversas civilizadas, ainda que editores entrem em discordância. Isso reduziria, portanto, ofensas, assédio virtual e discursos de ódio por ali — tudo por causa de um artigo da Wikipédia.

Segundo os pesquisadores, esta é a primeira vez em que se tenta prever discursos antissociais, já que, até então, as tentativas de combater discursos de ódio na internet analisam o que foi escrito depois da publicação, e não antes, de maneira preventiva. É mais ou menos como acontece em Minority Report, em que a tecnologia permite prever crimes antes que eles aconteçam — só que, neste caso, trata-se de um sistema preventivo de "tretas" mesmo.

O algoritmo está sendo treinado com 1.270 pares de conversação capturados no fórum de discussão da Wikipédia, a partir de 582 páginas diferentes. À medida em que a IA analisava o teor das conversas e seus gatilhos, descobriram-se pistas linguísticas que indicam que uma briga está por vir, como, por exemplo, a objetividade de uma resposta (o bom e velho "curto e grosso").

Até então, o algoritmo conseguiu uma precisão de 65% em suas análises prévias. Já quando os pesquisadores pediram que pessoas de verdade fizessem o mesmo (analisar o início de um bate-papo para adivinhar se a conversa vai "feder"), a precisão foi de 72%. Ou seja: a intuição humana ainda é importante nesse sentido. Mas, por outro lado, quando a IA e os humanos receberam exatamente as mesmas conversas para analisar, a precisão do algoritmo foi de 80%.

Apesar de a pesquisa apresentar resultados promissores, por enquanto nada foi dito quanto a implementação da IA nos fóruns da Wikipédia. A tecnologia ainda precisa avançar um pouquinho antes de ser aplicada com segurança em serviços virtuais que contam com milhares de usuários, como é o caso da Wikipédia.

Canaltech Canaltech
Compartilhar
TAGS
Publicidade
Publicidade