PUBLICIDADE

Podemos confiar no ChatGPT? 

Ferramenta é impressionante, mas ainda erra muitas respostas e apresenta vieses

10 abr 2023 - 05h00
(atualizado às 09h28)
Compartilhar
Exibir comentários
Realmente podemos confiar no que diz e faz o ChatGPT?
Realmente podemos confiar no que diz e faz o ChatGPT?
Foto: Poder360

Criado pela empresa Open AI, o ChatGPT é a geração mais recente de um modelo de processamento de linguagem natural (PLN) capaz de reconhecer e gerar padrões de linguagem, treinado a partir de imensos volumes de dados da internet.

Com uma sofisticação gritante em relação a outras inteligências artificiais (IA) que estamos mais acostumados, o ChatGPT parece inaugurar uma nova etapa de comunicação humana com sistemas de inteligência artificial por conseguir gerar respostas a perguntas, textos e conversas de forma bastante convincente e coerente. Mas realmente podemos confiar no que diz e faz o ChatGPT? 

O início dessa resposta começa com: "depende". Para que possamos usar essa ferramenta aproveitando suas funcionalidades para facilitar certas tarefas, precisamos entender também seus limites, que, frequentemente, esbarram com dilemas éticos importantes a respeito da inserção de IAs em nossos cotidianos. 

A primeira coisa importante de compreender é que tipo de inteligência é essa apresentada pelo ChatGPT. Embora ele pareça saber muito sobre vários assuntos e transmita suas informações de forma bastante eloquente, trata-se de um modelo estatístico que é capaz de aprender – de forma realmente impressionante – a dispor palavras a partir de padrões de linguagem que ele define como mais provável de serem combinadas em uma determinada situação. Mas sua inteligência, diferente da humana, não é capaz de compreender os significados daquilo que gera, tampouco de ter consciência ou senso crítico sobre o que diz. 

Embora pareça muito razoável, o que ele diz pode conter diferentes tipos de erros ou serem passíveis de contestação. Vimos circular nas redes sociais e na imprensa uma série de exemplos de informações imprecisas, incorretas ou até inexistentes pelo ChatGPT, como o erro na equação simples 2+2, que a IA respondeu 5.

Não apenas erros, mas alguns vieses como o gênero, com a IA se identificando no masculino ou respondendo que "a pessoa" que mais fez gols na história da seleção brasileira de futebol teria sido o Pelé, enquanto a informação correta é a jogadora Marta. 

Esses são apenas alguns dos exemplos de erros já identificados pelo ChatGPT. Porém, nem sempre o erro é tão fácil de identificar, até porque a IA insiste em dar sempre uma resposta convincente, mesmo quando ela não faz a menor ideia do que responder.

São nesses casos em que ela "alucina"  termo técnico usado para indicar situações nas quais a máquina dá uma resposta confiante sem qualquer embasamento nos dados de seu treinamento. Entre as alucinações, vimos exemplos de indicações de livros que não existem ou, no meu caso, quando pedi para o ChatGPT transcrever um vídeo para mim, ele simplesmente "transcreveu" algo completamente diferente do conteúdo original.  

Esses exemplos já nos indicam que é preciso ter muita cautela no uso de informações geradas pela IA. Não à toa, uma das áreas em que o uso do ChatGPT tem gerado maior polêmica é na ciência, na educação e no jornalismo.

Revistas científicas, escolas e universidades já proibiram o uso da tecnologia em sala de aula, para provas e trabalhos ou em artigos científicos. Isso porque são áreas que trabalham com a construção e a transmissão de fatos.

Embora o ChatGPT possa dar uma resposta genérica sobre o que é a verdade, a história da filosofia e das ciências nos mostra que a construção da verdade é cheia de embates, disputas e controvérsias, nuances que o senso crítico humano pode compreender, mas a máquina não. 

Por isso, quando estamos falando da confiança nas informações e conteúdos gerados pelo ChatGPT, precisamos ter bastante cuidado sobre a finalidade. Claro que a tecnologia pode ajudar a facilitar vários processos de produção de conteúdo, reduzindo custos e o tempo para isso, como fazer um rascunho de e-mail, por exemplo. Contudo, precisaremos de novos parâmetros para o uso ético desse tipo de ferramenta nesses diferentes espaços. 

Mesmo nessas áreas mais sensíveis como a educação e a ciência, simplesmente banir a ferramenta não vai ajudar a solucionar os problemas criados por elas. Será preciso bastante debate e criatividade para convivermos pacificamente com esse tipo de tecnologia, que, ao que tudo indica, veio para ficar. 

Na era das fake news, IAs como essa podem intensificar ainda mais o fenômeno da desinformação, especialmente quando gerar imagens e vídeos.

A própria Open AI reconhece que modelos de linguagem podem alavancar operações de influência para a disseminação de informações falsas de diferentes formas, reduzindo custos, ajudando a escalar desinformação e gerando conteúdos mais persuasivos.

Em um mundo com excesso de informação, ficará ainda mais difícil distinguir informações verdadeiras das falsas, as produzidas por humanos e por máquinas, as confiáveis das suspeitas. 

Após o lançamento do ChatGPT, outras grandes empresas de tecnologia anunciaram que estão trabalhando em ferramentas parecidas, possivelmente com outros diferenciais. Para encarar esses desafios complexos, precisaremos avançar nos debates regulatórios e éticos da inteligência artificial na busca por regras e parâmetros que orientem o uso desse tipo de tecnologia.

Um dos princípios éticos bastante discutidos para IA é a "responsabilidade", ou seja, quem será responsável pelos efeitos danosos a partir de respostas erradas ou vieses nesses sistemas? Será a empresa que desenvolveu a ferramenta, o modelo maquínico ou o próprio usuário? 

Quando avaliamos a confiabilidade da IA, também não podemos perder de vista o contexto de interesses econômicos e políticos daqueles que as criam. Acompanhemos daqui para frente os desdobramentos econômicos, culturais e políticos de como essa nova tecnologia será apropriada pela sociedade. Minha suspeita é a de que ficaremos surpresos com a criatividade humana para os usos máquina. 

Fonte: Redação Byte
Compartilhar
Publicidade
Publicidade