Script = https://s1.trrsf.com/update-1770314720/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

Programa cria "retratos falados" policiais, mas há risco de preconceito

O objetivo, de acordo com os desenvolvedores, é reduzir o tempo que leva para desenhar um suspeito de um crime

8 fev 2023 - 13h05
(atualizado às 13h06)
Compartilhar
Exibir comentários
Print de imagem gerada pelo programa
Print de imagem gerada pelo programa
Foto: Sasha Luccioni

Sabe-se da existência do famoso "retrato falado" para descrever características de criminosos por testemunhas de crimes. Mas agora, esse "esboço" ficará mais exato. Segundo uma reportagem da Vice, dois desenvolvedores – Artur Fortunato e Filipe Reynaud – usaram o modelo de geração de imagens DALL-E 2, da Open AI, para criar um programa de esboços hiper-realistas para suspeitos de crimes.

O programa se chama Forensic Sketch AI-rtist e foi criado como parte de um hackaton (maratona de desenvolvedores) em dezembro de 2022. O objetivo, de acordo com os criadores, é reduzir o tempo para desenhar um suspeito de um crime — um trabalho que dura em torno de duas a três horas.

Por enquanto, a dupla está avaliando se o projeto poderá ser usado em um cenário de "vida real" ou não. Para checar as possibilidades, eles estão entrando em contato com departamentos de polícia e obtendo dados para testar o programa. 

Ainda que a novidade possa parecer animadora, especialistas em ética e pesquisadores de inteligência artificial afirmaram a Vice que o uso de IA generativa na perícia policial é "incrivelmente perigoso". Ela possui alto potencial de piorar preconceitos raciais e de gênero, que também estão presentes em descrições de testemunhas.

"O problema com os esboços forenses tradicionais não é que eles levam tempo para produzir (o que parece ser o único problema que este programa de esboço forense de IA está tentando resolver). O problema é que qualquer esboço forense já está sujeito a preconceitos humanos e à fragilidade da memória humana", declarou a diretora de litígios de vigilância da Electronic Frontier Foundation, Jennifer Lynch, a Vice. 

E completou: "A IA não pode consertar esses problemas humanos, e esse programa em particular provavelmente os tornará piores por meio de seu próprio design". 

A tendência, para Lynch, é que os retratos reforcem preconceitos
A tendência, para Lynch, é que os retratos reforcem preconceitos
Foto: Pixabay

O programa solicita ao usuário características sobre gênero, cor da pele, sobrancelhas, nariz, barba, idade, cabelo, olhos e descrições da mandíbula. Há também um recurso de descrição aberta. Depois, é só clicar em "gerar perfil", que o DALL-E 2 produzirá o retrato. 

Lynch argumentou ainda que os seres humanos lembram de rostos de "forma holística" e não por característica. Ela também lembrou que, uma vez que a testemunha vê o retrato, essa imagem pode substituir a anterior em sua memória. Isso ocorre sobretudo quando o esboço é tão elaborado como o feito por uma IA, que dá a sensação de ser "mais real". 

Atualmente, pessoas negras já são cinco vezes mais propensas a serem paradas pela polícia do que  brancas. A diretora de litígios teme que, pautados em uma memória nebulosa e tendenciosa, os esboços reforçem estereótipos, direcionando a atenção das investigações para pessoas que parecem com o retrato falado em vez de outros fatores mais importantes. 

O DALL-E 2, segundo a pesquisadora da Hugging Face, Sasha Luccioni, também contém muitos preconceitos. Quando solicitado a criar uma imagem de um CEO, por exemplo, exibia principalmente homens brancos. 

Os desenvolvedores do programa, Fortunato e Reynaud, comentaram que o produto foi criado a partir da suposição de que as descrições da polícia são confiáveis e que "os policiais devem ser os responsáveis por garantir que um esboço justo e honesto seja compartilhado". Porém, eles próprios admitem que não há métricas para avaliar a precisão da imagem gerada. 

Fonte: Redação Byte
Compartilhar
TAGS
Publicidade

Conheça nossos produtos

Seu Terra












Publicidade