0

Assistentes digitais com voz feminina são sexistas, diz ONU

Maioria dos assistentes, como Siri, da Apple, foram concebidos para parecer femininos, dos nomes às vozes e personalidades, aponta estudo

22 mai 2019
13h14
atualizado às 14h01
  • separator
  • comentários

LONDRES (Thomson Reuters Foundation) - Assistentes digitais que respondem com voz feminina e que são apresentados como mulheres estão reforçando estereótipos sexistas, segundo um relatório da Organização das Nações Unidas (ONU) divulgado nesta quarta-feira (23).

LAssistente de voz da Apple, Siri
14/10/2011
REUTERS/Suzanne Plunkett
LAssistente de voz da Apple, Siri 14/10/2011 REUTERS/Suzanne Plunkett
Foto: Reuters

A maioria dos assistentes, como Siri, da Apple, Alexam, da Amazon, e Cortana, da Microsoft, foram concebidos para parecer femininos, dos nomes até às vozes e personalidades, disse o estudo.

Os programados são desenvolvidos para serem submissos e servis, o que inclui responder educadamente a insultos, e por isso reforçam a tendência de gênero e normalizam o assédio sexista, disseram pesquisadores da Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco).

"A submissão da Siri ao abuso de gênero - e a servilidade expressa por tantos outros assistentes digitais projetados como mulheres jovens - fornece uma ilustração poderosa das tendências de gênero codificadas em produtos tecnológicos", disse.

Apple, Amazon e Microsoft não estavam disponíveis de imediato para comentar.

Uma porta-voz da Microsoft disse anteriormente que a empresa pesquisou opções de voz para Cortana e descobriu que "uma voz feminina serve melhor o nosso objetivo de criar um assistente digital".

Soluções do relatório

Os assistentes de voz se tornaram parte da vida cotidiana de muitas pessoas e hoje representam quase um quinto de todas as pesquisas na internet, disse o relatório, que argumentou que eles podem ter um impacto cultural considerável.

"O mundo precisa prestar muito mais atenção a como, quando e se as tecnologias de IA recebem um gênero e, o que é crucial, quem lhes dá um gênero", disse Saniye Gulser Corat, diretora de igualdade de gênero da Unesco.

O relatório pediu às empresas que adotem ações como parar de criar assistentes digitais com voz feminina como padrão, explorar opções de gênero neutro e programar os assistentes para que desestimulem insultos com base no gênero e a linguagem abusiva.

Veja também:

 

Reuters Reuters - Esta publicação inclusive informação e dados são de propriedade intelectual de Reuters. Fica expresamente proibido seu uso ou de seu nome sem a prévia autorização de Reuters. Todos os direitos reservados.
  • separator
  • comentários
publicidade