Script = https://s1.trrsf.com/update-1765905308/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

Comissão dos EUA se prepara para questionar empresas de IA sobre impacto nas crianças, informa WSJ

4 set 2025 - 13h53
Compartilhar
Exibir comentários

A Comissão Federal de Comércio dos EUA (FTC) está se preparando para examinar os riscos à saúde mental dos chatbots de IA para crianças e exigirá documentos internos das principais empresas de tecnologia, incluindo OpenAI, Meta e Character.AI, noticiou o Wall Street Journal nesta quinta-feira.

A agência está preparando cartas para enviar às empresas que operam chatbots populares, disse a reportagem, citando integrantes do governo.

"A Character.AI não recebeu uma carta sobre o estudo da FTC, mas estamos dispostos a trabalhar com os reguladores e parlamentares quando eles começarem a considerar a legislação para esse espaço emergente", disse a empresa.

A FTC, a OpenAI e a Meta não responderam imediatamente aos pedidos de comentários da Reuters. A Reuters não pôde verificar a reportagem de forma independente.

A FTC e todo o governo estão focados em cumprir o mandato de Trump "para consolidar o domínio da América em IA, criptomoeda e outras tecnologias de ponta do futuro" sem comprometer a segurança e o bem-estar das pessoas, disse um porta-voz da Casa Branca.

A notícia chega semanas depois que uma reportagem exclusiva da Reuters revelou como a Meta permitiu um comportamento provocante de chatbot com crianças, incluindo permitir que os bots se envolvessem em "conversas românticas ou sensuais".

Na semana passada, a empresa de mídia social disse que adicionaria novas salvaguardas para adolescentes aos seus produtos de inteligência artificial, treinando sistemas para evitar conversas de flerte e discussões sobre automutilação ou suicídio com menores, e limitando temporariamente o acesso a determinados personagens de IA.

Em junho, mais de 20 grupos de defesa do consumidor apresentaram uma queixa à FTC e a procuradores-gerais estaduais, alegando que as plataformas de IA, como Meta AI Studio e Character.AI, permitem a prática não licenciada da medicina ao hospedar "bots de terapia".

O procurador-geral do Texas, Ken Paxton, iniciou uma investigação sobre a Meta e a Character.AI no mês passado por supostamente enganar crianças com serviços de saúde mental gerados por IA, acusando-as de práticas comerciais enganosas e violações de privacidade.

Reuters Reuters - Esta publicação inclusive informação e dados são de propriedade intelectual de Reuters. Fica expresamente proibido seu uso ou de seu nome sem a prévia autorização de Reuters. Todos os direitos reservados.
Compartilhar
TAGS
Publicidade

Conheça nossos produtos

Seu Terra












Publicidade