Nos últimos anos, muitos de nós adquirimos o hábito de conversar com inteligências artificiais. Fazemos perguntas, pedimos conselhos ou simplesmente testamos até onde vai sua capacidade de manter uma conversa natural. Ferramentas como os modos de voz do ChatGPT e do Gemini aproximaram essa experiência de algo que, não faz muito tempo, parecia reservado à ficção científica.
Mas há uma pergunta que raramente nos fazemos enquanto falamos com elas: como essas máquinas aprenderam a soar cada vez menos como um sistema e mais como uma pessoa?
Para entender isso, convém separar o que vemos do que não vemos. Por um lado, estão os aplicativos que usamos no dia a dia, esses assistentes que respondem com uma voz cada vez mais natural. Por outro, os sistemas que os sustentam, modelos treinados com grandes volumes de dados que precisam aprender não apenas o que dizer, mas também como dizer. Não sabemos quais produtos concretos acabam utilizando esse tipo de gravação, mas sabemos que elas fazem parte do ecossistema com o qual são treinados sistemas de voz cada vez mais fluidos e verossímeis.
Existem pessoas que vivem de treinar as IAs não sobre o que falar, mas em como falar. Esses indivíduos participam de gravações de conversas que depois são usadas para treinar os modelos. Em muitos casos, os exercícios consistem em manter conversas sobre temas aparentemente triviais, desde gostos do cotidiano até perguntas abertas que exigem desenvolver uma resposta. Em outros, a tarefa é mais exigente: ...
Matérias relacionadas