Oferecimento

É seguro pedir ao ChatGPT para recriar suas fotos? Entenda os riscos

Ferramentas podem usar indevidamente dados visuais sensíveis; especialista ensina como se proteger

6 mai 2025 - 04h59
(atualizado às 11h30)

Recriar fotos por inteligência artificial está na moda, mas a tecnologia por trás dessa mágica ainda carece de regulamentação clara. Ao enviar imagens pessoais para plataformas de IA, usuários podem abrir mão do controle sobre o uso e destino desses dados.

Segurança Digital: proteja os seus dados e da sua família a partir de R$ 4,90 por mês.

É o que explica à reportagem André Maini, especialista em Tecnologia e Marketing de Influência e Head de B.I. e Novas Tecnologias na ID. Impulso Digital.

Publicidade

Segundo ele, os riscos associados a essa prática incluem o treinamento não consentido dos modelos de IA com as imagens enviadas, a criação de deepfakes para fins de fraude ou desinformação e a exposição e uso indevido de dados visuais sensíveis, como o rosto ou o ambiente familiar.

Esses dados podem ser explorados comercialmente ou vazados.

“O problema central reside nos termos de uso das plataformas. Muitos desses termos permitem o reaproveitamento das imagens geradas e até mesmo das imagens originais enviadas, muitas vezes para fins que o usuário desconhece. É essencial diferenciar plataformas seguras, com políticas alinhadas a regulamentações como a LGPD e a futura Lei de IA, daquelas que operam com baixa transparência”, ele explica. 

O caso do ChatGPT

Considerando que o ChatGPT da OpenAI é uma das plataformas mais comuns para interação com IA, Maini considera relevante detalhar sua posição sobre o uso de imagens enviadas. 

Publicidade
  • Imagens enviadas ao ChatGPT podem ser utilizadas para treinar os modelos da OpenAI.
  • Usuários podem desativar essa opção nas configurações de privacidade.
  • As versões gratuita e Plus oferecem controle ao usuário para desativar o uso de dados para treinamento.
  • Existe um modo de chat temporário que não salva nem reutiliza informações.
  • Nas versões corporativas (Enterprise/Team), os dados não são utilizados para treinamento por padrão, oferecendo maior segurança e conformidade com regulamentações como SOC 2 Type 2.
  • A OpenAI aplica testes de segurança, incluindo avaliações de terceiros. No entanto, o envio de imagens sensíveis ainda representa risco, especialmente se o usuário não ajustar as configurações de privacidade.

Maini reitera que é possível usar essas ferramentas de forma recreativa e criativa, mas com consciência dos riscos. Sua recomendação como especialista é evitar enviar imagens sensíveis e ler atentamente os termos de uso. 

Ele também sugere considerar a rastreabilidade das informações. “Nenhuma IA é neutra ou isolada, e o que é compartilhado pode alimentar uma base global amanhã”, explica o especialista.

Gigi Grandin, especialista em marketing de influência, teve uma surpresa ao pedir à IA que recriasse sua foto
Gigi Grandin, especialista em marketing de influência, teve uma surpresa ao pedir à IA que recriasse sua foto
Foto: Arquivo Pessoal

‘Me transformaram em homem’

Essas questões ganham contornos concretos em experiências como da especialista em marketing de influência Gigi Grandin. Após ter um artigo publicado na edição impressa da revista Meio & Mensagem, ela tirou uma foto da página com o celular. 

A imagem original estava escura e desalinhada. Na tentativa de melhorar a qualidade, Gigi recorreu a uma ferramenta de inteligência artificial para "restaurar" a foto.

Publicidade

O resultado, segundo Gigi Grandin conta ao Terra, não foi uma versão melhor da imagem, mas um "apagamento".

“A IA substituiu minha imagem pela de um homem branco de meia-idade. Além disso, trocou meu nome por um nome masculino fictício. Virei homem, deixei de existir. O que aconteceu foi um apagamento”, ela conta.

"O algoritmo, aparentemente, considerou a imagem desse homem mais adequada para estar na página, ocupar o cargo de CEO e ser autor de um artigo em uma revista de negócios do que a minha imagem."

Gigi interpretou o ocorrido não como um erro técnico, mas como um reflexo de estereótipos sociais. Ela aponta que a IA, treinada com milhões de dados, pode aprender, repetir e ampliar os mesmos estereótipos. 

André Maini concorda.

“A substituição por um homem fictício levanta a questão do futuro que está sendo construído, onde uma mulher real com nome, rosto, currículo e cargo pode ser apagada por uma máquina que ‘acredita’ que um homem fictício é mais coerente com aquele contexto. A exclusão vivenciada no mundo real pode estar sendo transposta para o digital, algorítmico e automático. Quando a exclusão é automatizada, ela pode se tornar regra, padrão e base de dados”, diz o especialista.

Fonte: Terra Content Solutions
TAGS
Curtiu? Fique por dentro das principais notícias através do nosso ZAP
Inscreva-se