IA no ensino superior: como lidar com o uso dos grandes modelos de linguagem pelos alunos?
Uma das áreas onde o impacto do uso das tecnologias de inteligência artificial generativa foi particularmente gritante é a educação, em especial o ensino superior
O ano de 2022 viu a introdução dos grandes modelos de linguagem para o grande público, começando com o ChatGPT da OpenAI. Nesses três anos que se seguiram, a lista de modelos só cresceu, com adições que incluem o Gemini da Google, o Claude da Anthropic e o Deepseek da empresa homônima, dentre outros.
Essas ferramentas de inteligência artificial generativa se tornaram imensamente populares, e seu uso infiltrou os mais variados contextos - de assistentes para programadores a substitutos para conversas em aplicativos de namoro. Uma das áreas onde o impacto do uso dessas tecnologias foi particularmente gritante é a educação, em especial o ensino superior.
As próprias companhias de IA têm apostado pesado na educação superior, com campanhas de marketing direcionadas a universidades e alunos - como este da Samsung com o Gemini, em que três estudantes universitários trocam seus livros por explicações superficiais e infantilizadas do Gemini (uma bela ilustração do futuro sonhado pelas companhias de IA para o ensino superior).
Apesar da aparente falta de contato com o propósito do ensino superior, o marketing parece estar funcionando, tendo em vista a existência de acordos multimilionários sendo fechados com instituições de ensino.
Marketing evangelista
Em sua essência, o marketing evangelista dos modelos de linguagem prega que essa tecnologia vai revolucionar a educação superior, tanto diretamente, por meio do seu imenso potencial pedagógico, quanto indiretamente, com seus efeitos no mercado de trabalho.
Muitos no ensino superior abraçaram essa narrativa e não faltam apelos à reformas curriculares, visando "atualizar" as universidades para essa nova realidade - uma visão que parece mais fruto de uma aceitação pouco crítica do marketing das empresas de IA do que uma visão deliberada e bem embasada.
Independente da necessidade de reformas generalizadas, o fato é que, para o bem ou para mal, o uso desses modelos pelos alunos já se tornou uma realidade, como qualquer professor do ensino superior pode atestar - e nem sempre de forma positiva.
Apesar disso, a maioria das instituições de ensino superior brasileiras ainda engatinha em suas discussões sobre o assunto, com a vasta maioria das universidades brasileiras carecendo de diretrizes institucionais claras para o uso dessas ferramentas. Isso faz com que cada professor tenha que definir diretrizes em sua própria disciplina - o que pode ser desafiador em alguns casos. Na prática, temos pouco controle sobre o uso que os alunos fazem dessas ferramentas.
Desafios de regular o uso de modelos de linguagem
Na maioria dos casos, o mais fácil é controlar apenas o objetivo de aprendizado - por exemplo, aplicando provas presenciais, sem qualquer tipo de consulta, para determinar se os alunos de fato adquiriram os conhecimentos/habilidades que a disciplina visava ensinar.
O problema dessa solução é que, caso os alunos estejam usando modelos de linguagem de forma contraprodutiva nos seus estudos, a única coisa que poderemos fazer é reprová-los ao término da disciplina. Ou seja, tal abordagem não impede o uso inapropriado dessas ferramentas ou suas consequências negativas para o aprendizado, apenas avalia os resultados - algo necessário, mas insuficiente.
A situação fica ainda mais complicada em casos onde temos menor controle sobre o resultado pedagógico. É o caso, por exemplo, de trabalhos de conclusão de curso (TCCs). Do ponto de vista pedagógico, o mais importante em um TCC é o aprendizado que surge do processo de elaboração do trabalho, mais do que o trabalho em si.
O problema é que muito da avaliação de um TCC incide, por necessidade, sobre o trabalho final, de forma que o uso inadequado de modelos de linguagem nesse contexto, bem como seu impacto negativo no aprendizado, pode ser mais difícil de detectar e comprovar.
No fim das contas, em ambos os casos discutidos acima, nossa melhor chance de mitigar usos contraproducentes de ferramentas de IA é instruir os alunos quanto ao uso ético e pedagogicamente apropriado dos modelos de linguagem e exortá-los a assumir responsabilidade por seu aprendizado.
Como instruir os alunos quanto ao uso de modelos de linguagem?
Acredito que há duas questões que devem ser levadas em consideração quando cogitamos qualquer uso dessas ferramentas:
1) A ferramenta é capaz de cumprir a tarefa para a qual será empregada?
2) Além disso, o uso dessa ferramenta preserva o propósito pedagógico da tarefa?
O uso de modelos de linguagem no processo de aprendizagem só deve ser feito caso a resposta para essas duas questões seja afirmativa. Para ilustrar, vamos considerar alguns exemplos.
Exemplo 1: Usando IA para elaborar resumos
Imagine um aluno que usa o ChatGPT para fazer resumos do conteúdo que precisa estudar com base em livros, slides e anotações de aula.
O ChatGPT, assim como outros modelos de linguagem, parece perfeitamente capaz de fazer resumos aceitáveis na maioria dos casos. Porém, o objetivo pedagógico de fazer um resumo - seu valor no processo de aprendizagem - reside na ação de fazer o resumo, muito mais do que em estudar pelo resumo.
Ao elaborar um resumo precisamos recordar e revisar as informações relevantes, organizá-las e elaborá-las, extraindo os elementos essenciais do conteúdo. Todos esses processos existem tempo e esforço (o que torna tentador automatizá-los), mas são dificuldades desejáveis, sabidamente benéficas ao processo de aprendizagem.
Simplesmente ler um resumo, por outro lado, não é uma estratégia de estudo particularmente eficaz - algo que estudos na área de educação já têm demonstrado há décadas. Logo, o uso do ChatGPT nesse contexto não seria recomendável, mesmo que o modelo seja capaz de desempenhar a tarefa em questão.
Exemplo 2: Usando IA para formatar trabalhos
Agora imagine um aluno que acabou de escrever seu TCC (sem qualquer auxílio de modelos de linguagem) e quer usar o Gemini para formatar suas referências de acordo com as normas da ABNT.
O uso da ferramenta, nesse caso, não parece ter qualquer consequência negativa para os objetivos pedagógicos de um TCC. Porém, é provável que o Gemini não seja capaz de realizar a formatação de forma consistente.
Além disso, existe a possibilidade de serem feitas alterações no conteúdo do texto durante a formatação, o que exigiria uma conferência minuciosa de cada referência bibliográfica para garantir que seus detalhes permaneçam corretos.
Evidentemente, esse uso não é nem um pouco prático. Seria mais simples usar um software de manejo de referências, que faria o trabalho de forma muito mais confiável.
Em outras palavras, o uso nesse caso seria pedagogicamente aceitável, mas a ferramenta pode não ser capaz de realizar a tarefa de forma adequada. Por tanto, seu uso não é recomendável.
Vale ressaltar que não é raro ver alunos usando modelos de linguagem de forma ineficiente em tarefas para as quais há ferramentas mais antigas que são mais específicas e confiáveis.
Isso mostra como é importante instruir os alunos para que ampliem seu repertório de ferramentas e não se tornem inteiramente dependes de modelos de linguagem.
Exemplo 3: Uso de IA para revisão gramatical de texto escrito em segunda língua
Como último exemplo, imagine uma aluna que terminou de escrever a versão inicial de um artigo em inglês, no contexto de sua iniciação científica, sem o auxílio de ferramentas de IA.
A aluna resolve então usar o Deepseek para fazer a revisão do inglês - apenas para polir o texto final, evitando erros gramaticais. Após o uso da ferramenta, a aluna teve o cuidado de conferir todas as alterações feitas no texto, garantindo que não houve alterações no conteúdo em si.
Os modelos de linguagem são capazes de realizar tal tarefa, por mais que exijam atenção do usuário para potenciais alterações no conteúdo. Tal uso não parece interferir com os objetivos pedagógicos uma vez que o próprio aluno elaborou todo o texto por conta própria, usando a ferramenta de IA apenas para aparar as arestas no seu uso do inglês.
Aqui temos, enfim, um uso adequado dessas ferramentas (por mais que ainda hajam ferramentas alternativas que talvez fossem mais adequadas para a tarefa, como programas focados em revisão gramatical, com os quais há menor chance de ocorrer alterações no conteúdo).
Mas agora imagine, no nosso último exemplo, que o texto em questão tenha sido escrito no contexto de uma disciplina de inglês avançado em um curso de Letras - Português-Inglês, onde o objetivo é adquirir proficiência na escrita em inglês. Nesse caso, o uso do Deepseek pode, sim, interferir com o objetivo pedagógico da disciplina. E, portanto não ser recomendável. Isso ilustra como o mesmo uso pode ou não ser adequado dependendo do contexto.
Note que, mesmo nesse último exemplo, em que o contexto faz a diferença entre um mesmo uso dos modelos de linguagem ser ou não adequado, as duas questões apresentadas aqui são capazes de auxiliar na tomada de decisões de forma consciente e deliberada.
No fim, o aprendizado exige comprometimento dos alunos
Obviamente, não há qualquer garantia de que os alunos, uma vez apresentados a essa abordagem para decidir sobre o uso de modelos de linguagem, de fato usarão as ferramentas de forma adequada.
O processo de aprendizagem é repleto de tarefas desafiadoras que exigem tempo e esforço. Ter um atalho na palma da mão é extremamente tentador, especialmente quando os alunos têm que lidar com demandas de múltiplas disciplinas simultaneamente.
Mas isso está além do nosso controle como professores. O máximo que podemos fazer é instruir. Também é importante deixar claro que evitar o uso indevido da IA não é apenas uma questão de evitar reprovação. É uma questão de se comprometer com o próprio aprendizado.
O mau uso dessas ferramentas para terceirizar tarefas importantes na formação pode ser prejudicial mesmo que se entregue "resultados" adequados. O aprendizado sempre exige tempo e esforço, e é preciso resistir ao impulso de tentar pular etapas difíceis e trabalhosas, mesmo que seja possível fazê-lo.
Os autores não prestam consultoria, trabalham, possuem ações ou recebem financiamento de qualquer empresa ou organização que se beneficiaria deste artigo e não revelaram qualquer vínculo relevante além de seus cargos acadêmicos.