Script = https://s1.trrsf.com/update-1727287672/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

Comitê de segurança da OpenAI supervisionará práticas da empresa como órgão independente

17 set 2024 - 09h19
(atualizado às 14h13)
Compartilhar
Exibir comentários

A OpenAI anunciou na noite de segunda-feira que seu comitê de segurança supervisionará os processos de desenvolvimento e a implantação do modelo de inteligência artificial da empresa, como um órgão independente.

A OpenAI, a empresa desenvolvedora do chatbot ChatGPT, formou o Comitê de Segurança e Proteção em maio deste ano para avaliar e desenvolver práticas de segurança na empresa.

Como parte das recomendações do comitê, a OpenAI disse que está avaliando o desenvolvimento de um "Centro de Análise e Compartilhamento de Informações (ISAC) para o setor de IA, para permitir o compartilhamento de informações sobre inteligência contra ameaças e segurança digital entre entidades do setor de IA".

O comitê independente será presidido por Zico Kolter, professor e diretor do departamento de aprendizado de máquina da Carnegie Mellon University, que faz parte do conselho da OpenAI.

"Estamos buscando a expansão da segmentação de informações internas e a contratação de pessoal adicional para aprofundar as equipes de operações de segurança 24 horas por dia", afirmou a OpenAI.

A empresa também disse que trabalhará para se tornar mais transparente sobre as capacidades e os riscos de seus modelos de IA.

No mês passado, a OpenAI assinou um acordo com o governo dos Estados Unidos para pesquisa, teste e avaliação dos modelos de IA da empresa.

Reuters Reuters - Esta publicação inclusive informação e dados são de propriedade intelectual de Reuters. Fica expresamente proibido seu uso ou de seu nome sem a prévia autorização de Reuters. Todos os direitos reservados.
Compartilhar
TAGS
Publicidade
Seu Terra












Publicidade