Usuária, banida do ChatGPT meses antes de matar oito e cometer suicídio, não foi reportada às autoridades à época por não ser considerada uma ameaça séria o bastante.O CEO da OpenAI, Sam Altman, pediu desculpas à cidade canadense de Tumbler Ridge após um ataque perpetrado por uma ex-usuária do ChatGPT matar oito pessoas em fevereiro.
Altman disse estar "profundamente arrependido" por a empresa não ter alertado a polícia sobre conteúdos preocupantes da usuária no ChatGPT.
O primeiro-ministro da província canadense da Colúmbia Britânica, David Eby, classificou o pedido de desculpas como "necessário, e ainda assim grosseiramente insuficiente".
Atiradora foi banida do ChatGPT oito meses antes
Em 10 de fevereiro, uma mulher transgênero de 18 anos matou a mãe e o meio-irmão em casa, antes de ir a uma escola secundária local e abrir fogo. Ela matou cinco crianças e um professor e, em seguida, tirou a própria vida.
Após o ataque, a OpenAI afirmou ter identificado a conta da suspeita por meio de seus sistemas de detecção de abuso e banido-a do chatbot ainda em junho, oito meses antes da tragédia.
A empresa disse que não reportou a conta à polícia canadense na época porque a atividade não teria sido grave o suficiente para justificar um encaminhamento às autoridades.
"Estou profundamente arrependido por não termos alertado as autoridades policiais sobre a conta que foi banida em junho", disse Altman na carta enviada a Eby e divulgada nesta sexta-feira (24/04). "Embora eu saiba que palavras nunca são suficientes, acredito que um pedido de desculpas é necessário para reconhecer o dano e a perda irreversível que sua comunidade sofreu."
Altman também justificou o pedido de desculpas mais de dois meses depois da tragédia, alegando que queria respeitar o luto dos moradores de Tumbler Ridge.
Como o ChatGPT denuncia suspeitas de violência?
A OpenAI afirma que usa sistemas automatizados de moderação que analisam conteúdos em tempo real. Contas podem ser restringidas ou banidas por violar as regras. As violações incluem exploração sexual, apoio à automutilação e ao suicídio, e promoção de violência e danos.
Em casos graves, os sistemas são projetados para sinalizar comportamentos de alto risco para revisão humana. Se uma ameaça crível for identificada, a empresa pode compartilhar dados relevantes da conta com as autoridades policiais.
Após o ataque, autoridades canadenses convocaram a equipe de segurança da OpenAI e ameaçaram responder com ações regulatórias caso mudanças não fossem feitas. A empresa afirmou que iria reforçar suas medidas de segurança e que criou um canal de contato direto com a polícia.
Na carta, Altman disse que a OpenAI está comprometida em encontrar formas de evitar tragédias semelhantes. "Daqui para frente, nosso foco continuará sendo trabalhar com todos os níveis de governo para ajudar a garantir que algo assim nunca aconteça novamente", afirmou.
A família de uma menina que ficou gravemente ferida no tiroteio entrou com uma ação judicial por negligência contra a gigante de tecnologia dos Estados Unidos.
Eles alegam que a OpenAI sabia que a atiradora planejava um "evento com mortes em massa", mas não "adotou nenhuma medida".
ra (AFP, AP, ots)