Script = https://s1.trrsf.com/update-1770314720/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

A IA chegou na pós-graduação, mas não nas universidades

Este é um dos dilemas mais urgentes e menos enfrentados da universidade brasileira hoje: a inteligência artificial generativa já está dentro das dissertações e teses

9 abr 2026 - 18h14
Compartilhar

Numa tarde recente, uma orientanda me enviou o rascunho de um capítulo teórico. O texto estava fluido, bem articulado, com as referências nos lugares certos. Algo, porém, parecia levemente fora de lugar, uma certa uniformidade de ritmo, uma ausência daquela aspereza produtiva que marca quem ainda está aprendendo a pensar por escrito. Não perguntei nada. Ela também não disse nada. E foi exatamente esse silêncio que me preocupou.

Essa cena, que aposto não ser exclusiva da minha experiência no programa de pós-graduação em Comunicação (PGCOM) da UERJ, resume um dos dilemas mais urgentes e menos enfrentados da universidade brasileira hoje: a inteligência artificial generativa já está dentro das dissertações e teses.

Está nas revisões de literatura, nos fichamentos, nos esboços de argumento, nas transcrições de entrevistas. Está no cotidiano da pós-graduação de um jeito silencioso, informal e, sobretudo, sem nenhuma bússola ética ou institucional que oriente estudantes e professores sobre o que fazer com ela.

O problema não é a tecnologia. O problema é o vazio ao redor dela. Esse vazio não é privilégio brasileiro. Uma revisão sistemática publicada em 2025 na revista Frontiers in Education, analisa estudos sobre escrita acadêmica e IA entre 2023 e 2025 e identifica o que pesquisadores passaram a chamar de escrita "AI-nizada" — textos que diluem a voz autêntica do estudante e comprometem o desenvolvimento de sua identidade intelectual.

Pesquisa publicada no British Journal of Educational Technology mostrou que professores de universidades britânicas já recorrem a arguições orais improvisadas como estratégia de emergência para verificar autoria. E o International Center for Academic Integrity revelou que 58% dos estudantes admitiram usar ferramentas de IA de forma desonesta em avaliações acadêmicas e provavelmente a cifra real é maior.

Trata-se de um sinal claro de que os modelos avaliativos tradicionais simplesmente não dão conta do novo cenário.

Sem mapa e sem bússola

No Brasil, o quadro é agravado por uma camada adicional: a ausência quase total de regulação institucional. Levantamento realizado pela Cátedra Oscar Sala da USP, com mais de 150 Instituições de Ensino Superior (IES) brasileiras, encontrou apenas sete com diretrizes formais para o uso de IA generativa.

O Referencial do MEC para uso responsável de IA na Educação, publicado em fevereiro de 2026, confirmou o tamanho do problema: 73,8% dos docentes e gestores de IES públicas não souberam informar se havia qualquer medida regulatória sobre o tema em suas instituições. Mais recentemente, levantamento publicado pelo O Globo em março de 2026 indicou que apenas 43% das 69 universidades federais já têm protocolos disponíveis ou em construção - o que significa que mais da metade ainda opera sem qualquer orientação formal.

Quando uma universidade finalmente se mexe, o campo ainda não sabe bem como reagir. O caso da Universidade Federal do Ceará é ilustrativo. Ao publicar sua Portaria nº 39/2025, tornando obrigatória a declaração de uso de IA e a submissão de trabalhos a ferramentas de detecção de similaridade, a universidade foi simultaneamente pioneira e alvo de crítica.

Artigo publicado aqui no The Conversation argumentou que a norma carregava viés punitivista, criava zonas cinzentas difíceis de fiscalizar e arriscava desestimular exatamente a transparência que pretendia promover. A UFC respondeu que o objetivo era ético e formativo, não disciplinar. O debate em si, porém, é sintomático: não temos nem linguagem comum para discutir o problema.

Na pós-graduação, as tensões são particularmente agudas porque o que está em jogo não é apenas o desempenho numa disciplina. É a formação de pesquisadores. Uma dissertação ou tese não é um produto. É um processo de aprendizagem profunda, de construção de um pensamento próprio, de amadurecimento intelectual que não tem atalho. E é exatamente nesse processo que a IA generativa, usada sem mediação, representa seu risco mais sutil e mais grave: não o do plágio evidente, mas o do que pesquisadores chamam de erosão epistêmica, isto é, a atrofia gradual da capacidade de pensar de forma independente, de sustentar um argumento, de desenvolver uma voz intelectual própria.

Risco de corrupção da identidade acadêmica

Pesquisa conduzida com acadêmicos britânicos e publicada na Postdigital Science and Education revelou que professores expressam temores de que as ferramentas de IA possam "corromper a identidade acadêmica e as práticas autênticas de produção intelectual." Outros falam em "desqualificação", "desumanização" e "erosão epistêmica". Não se trata de resistência tecnológica. Trata-se de uma ansiedade existencial legítima sobre o valor do trabalho intelectual em si.

Na pós-graduação, essa ansiedade se concretiza no processo de orientação: como avaliar o desenvolvimento de um pensador quando não se sabe mais distinguir o que é dele do que foi gerado por uma máquina? Como identificar se um mestrando realmente compreendeu o que escreveu — ou se aprendeu apenas a fazer as perguntas certas para um chatbot?

O estudo da Frontiers in Education é preciso ao nomear o dilema que estudantes enfrentam: escolher entre produzir um texto que "soa melhor" graças à IA ou um que "soa como eles mesmos." Quando a escolha sistemática é pela primeira opção, o que se perde não é apenas autoria — é a formação.

O referencial do MEC propõe caminhos sensatos: Comissões de Inteligência Artificial nas IES, critérios explícitos de autoria, revisão das práticas avaliativas para valorizar processo e não apenas produto. Um estudo comparando políticas institucionais em 40 universidades de seis regiões do mundo aponta na mesma direção, mostrando que as instituições mais eficazes combinam diretrizes claras com programas de formação e avaliações autênticas e não apostam apenas em controle e detecção.

São propostas razoáveis. Mas um referencial sem obrigatoriedade é uma sugestão. E sugestões, no contexto da burocracia universitária brasileira, têm um ciclo de vida conhecido: viram grupos de trabalho, que viram relatórios, que viram gavetas.

O que falta não é diagnóstico. O que falta é mecanismo e um ator que o faça funcionar. Esse ator tem nome: a CAPES. A agência que regula e avalia a pós-graduação brasileira é, hoje, a instância com mais poder real para induzir mudanças sistêmicas nas IES. Não por acaso, é a avaliação quadrienal que define financiamento, credenciamento e prestígio dos programas.

Se a CAPES incluir critérios de governança da IA (existência de política institucional, formação docente específica, revisão das práticas avaliativas) como parte dos indicadores de qualidade, as universidades responderão. Não por convicção imediata, mas porque o incentivo estará onde sempre esteve: na nota do programa.

O mesmo vale para o MEC em sentido amplo. O referencial existe, é bem fundamentado e chega num momento oportuno. Mas documentos orientadores sem mecanismos de implementação têm história longa e pouco gloriosa na educação brasileira.

Programas e orientadores à deriva

O próximo passo não é um novo documento: é uma portaria, uma resolução, uma exigência concreta que transforme intenção em política. Enquanto isso não acontece, cada programa de pós-graduação fica à deriva, cada orientador inventa sua própria regra, e cada estudante navega sozinho num território sem mapa.

Alguns usam a IA com discernimento e criatividade. Outros a usam como muleta, sem perceber que estão abrindo mão exatamente do que a pós-graduação deveria lhes dar. E a maioria está no meio - curiosa, insegura, sem saber o que é permitido, o que é esperado, o que é ético. Essa insegurança não é culpa deles. É resultado direto de instituições que preferiram o silêncio à complexidade de regular algo novo.

A universidade pública brasileira tem uma tradição legítima de questionar para quem a tecnologia serve, quem ela exclui, que interesses ela carrega. Essa tradição crítica é exatamente o que nos habilita a ter uma conversa séria sobre IA na produção do conhecimento. Mas crítica sem política interna é conforto intelectual.

É possível (e necessário) questionar os limites da IA generativa e, ao mesmo tempo, criar regras claras para conviver com ela. Porque ela já está aqui, dentro das nossas salas de orientação, dentro dos nossos programas, dentro dos textos que, às vezes, ficamos sem saber bem como avaliar.

The Conversation
The Conversation
Foto: The Conversation

Raquel Lobão não presta consultoria, trabalha, possui ações ou recebe financiamento de qualquer empresa ou organização que poderia se beneficiar com a publicação deste artigo e não revelou nenhum vínculo relevante além de seu cargo acadêmico.

The Conversation Este artigo foi publicado no The Conversation Brasil e reproduzido aqui sob a licença Creative Commons
Compartilhar
Publicidade

Conheça nossos produtos

Seu Terra