Script = https://s1.trrsf.com/update-1770314720/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

OpenAI pede desculpas por não alertar Canadá sobre atiradora

25 abr 2026 - 09h15
Compartilhar
Exibir comentários

Usuária, banida do ChatGPT meses antes de matar oito e cometer suicídio, não foi reportada às autoridades à época por não ser considerada uma ameaça séria o bastante.O CEO da OpenAI, Sam Altman, pediu desculpas à cidade canadense de Tumbler Ridge após um ataque perpetrado por uma ex-usuária do ChatGPT matar oito pessoas em fevereiro.

Altman disse estar "profundamente arrependido" por a empresa não ter alertado a polícia sobre conteúdos preocupantes da usuária no ChatGPT.

O primeiro-ministro da província canadense da Colúmbia Britânica, David Eby, classificou o pedido de desculpas como "necessário, e ainda assim grosseiramente insuficiente".

Atiradora foi banida do ChatGPT oito meses antes

Em 10 de fevereiro, uma mulher transgênero de 18 anos matou a mãe e o meio-irmão em casa, antes de ir a uma escola secundária local e abrir fogo. Ela matou cinco crianças e um professor e, em seguida, tirou a própria vida.

Após o ataque, a OpenAI afirmou ter identificado a conta da suspeita por meio de seus sistemas de detecção de abuso e banido-a do chatbot ainda em junho, oito meses antes da tragédia.

A empresa disse que não reportou a conta à polícia canadense na época porque a atividade não teria sido grave o suficiente para justificar um encaminhamento às autoridades.

"Estou profundamente arrependido por não termos alertado as autoridades policiais sobre a conta que foi banida em junho", disse Altman na carta enviada a Eby e divulgada nesta sexta-feira (24/04). "Embora eu saiba que palavras nunca são suficientes, acredito que um pedido de desculpas é necessário para reconhecer o dano e a perda irreversível que sua comunidade sofreu."

Altman também justificou o pedido de desculpas mais de dois meses depois da tragédia, alegando que queria respeitar o luto dos moradores de Tumbler Ridge.

Como o ChatGPT denuncia suspeitas de violência?

A OpenAI afirma que usa sistemas automatizados de moderação que analisam conteúdos em tempo real. Contas podem ser restringidas ou banidas por violar as regras. As violações incluem exploração sexual, apoio à automutilação e ao suicídio, e promoção de violência e danos.

Em casos graves, os sistemas são projetados para sinalizar comportamentos de alto risco para revisão humana. Se uma ameaça crível for identificada, a empresa pode compartilhar dados relevantes da conta com as autoridades policiais.

Após o ataque, autoridades canadenses convocaram a equipe de segurança da OpenAI e ameaçaram responder com ações regulatórias caso mudanças não fossem feitas. A empresa afirmou que iria reforçar suas medidas de segurança e que criou um canal de contato direto com a polícia.

Na carta, Altman disse que a OpenAI está comprometida em encontrar formas de evitar tragédias semelhantes. "Daqui para frente, nosso foco continuará sendo trabalhar com todos os níveis de governo para ajudar a garantir que algo assim nunca aconteça novamente", afirmou.

A família de uma menina que ficou gravemente ferida no tiroteio entrou com uma ação judicial por negligência contra a gigante de tecnologia dos Estados Unidos.

Eles alegam que a OpenAI sabia que a atiradora planejava um "evento com mortes em massa", mas não "adotou nenhuma medida".

ra (AFP, AP, ots)

Deutsche Welle A Deutsche Welle é a emissora internacional da Alemanha e produz jornalismo independente em 30 idiomas.
Compartilhar
TAGS

Comentários

As opiniões expressas nos comentários são de responsabilidade exclusiva de seus autores e não representam a opinião do Terra.

Publicidade

Conheça nossos produtos

Seu Terra