Script = https://s1.trrsf.com/update-1761143121/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

'ChatGPT não é polícia moral', defende dono da OpenAI após confirmar conteúdo erótico na IA

CEO defende liberdade para adultos e promete manter proteção a menores, após críticas por liberar textos pornográficos no chatbot

16 out 2025 - 16h41
Compartilhar
Exibir comentários

A OpenAI voltou ao centro das atenções nesta semana após o CEO Sam Altman afirmar que a empresa "não é a polícia moral eleita do mundo". A declaração, publicada na quarta-feira, 15, em sua conta no X (ex-Twitter), veio após forte reação à decisão da companhia de permitir conteúdo erótico no ChatGPT, medida que gerou debates sobre os limites éticos da inteligência artificial (IA).

Altman afirmou que a startup vai poder "relaxar com segurança" parte das restrições atuais, graças ao avanço dos controles internos de segurança. Segundo ele, as novas ferramentas ajudariam a reduzir riscos de saúde mental e iriam oferecer mais liberdade aos usuários adultos, sem comprometer a proteção de adolescentes.

Em dezembro, a OpenAI planeja liberar uma atualização que vai incluir a opção de gerar conteúdo erótico para "adultos verificados", buscando tratar usuários maiores de idade "como adultos". "Da mesma forma que há classificações indicativas em filmes, queremos aplicar algo semelhante aqui", afirmou Altman.

A mudança, porém, vai de encontro com declarações anteriores do CEO. Em agosto, Altman disse que sentia "orgulho" por evitar recursos como "bots de sexo", que, segundo ele, poderiam dar engajamento à sua plataforma, mas estariam "desalinhados com o objetivo de longo prazo" da OpenAI.

A reação de internautas nas redes sociais não foi tão receptiva, refletindo preocupações com menores de idade que usam a IA, mas, essa discussão não é de hoje, considerando que, nos últimos meses, a OpenAI tem passado por críticas e investigações de órgãos reguladores.

Em setembro, a Comissão Federal de Comércio (FTC) abriu uma investigação sobre os efeitos de chatbots em crianças e adolescentes. A empresa também é citada em um processo judicial por homicídio culposo, movido pela família de um jovem que se suicidou após interagir com o ChatGPT.

Em resposta às críticas, a companhia anunciou novas medidas de segurança, como controles parentais lançados no fim de setembro e um sistema de previsão de idade que ajustará automaticamente as configurações para usuários menores de 18 anos. A OpenAI também criou um conselho de especialistas para avaliar o impacto da IA na saúde mental e na motivação dos usuários.

Altman ressaltou que, apesar da flexibilização, o ChatGPT continuará priorizando a segurança de adolescentes e de pessoas em crise emocional. "Não permitiremos coisas que possam causar danos a outros", afirmou, sem detalhar quais tipos de conteúdo seguirão proibidos ou como a empresa vai identificar situações sensíveis.

Para o executivo, a nova abordagem reflete um equilíbrio entre responsabilidade e autonomia. "Sem ser paternalistas, queremos ajudar os usuários a atingir seus objetivos de longo prazo", disse. A OpenAI não comentou oficialmente o caso, mas Altman garantiu que a empresa seguirá ajustando suas políticas à medida que o uso da IA evolui.

Estadão
Compartilhar
TAGS
Publicidade

Conheça nossos produtos

Seu Terra












Publicidade