Script = https://s1.trrsf.com/update-1770314720/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

As pessoas usam IA para justificar mau comportamento. Esta tendência do TikTok as expõe

"Você não apenas saiu do relacionamento — você deixou uma mensagem. Uma mensagem dizendo: 'Eu tenho o direito de ser feliz.' E, sinceramente, você é muito real por isso"

12 mar 2026 - 09h18
Compartilhar
Exibir comentários

Em algum lugar, de algum jeito, o ChatGPT está dizendo para a pior pessoa que você conhece que ela está absolutamente certa. Pelo menos, é isso que a tendência de ponto de vista mais recente do TikTok está destacando.

Foto: Scott Olson/Getty Images / Rolling Stone Brasil

Muitas vezes chamados de vídeos "ChatGPT para alguém agora mesmo", essa tendência, que cresce de forma constante, mira de tudo: de pais narcisistas a namorados encostados, passando por generais responsáveis pela primeira onda de bombardeios no Irã. A ideia é imaginar como essas pessoas estariam usando o ChatGPT para validar o próprio comportamento. "Você está certo, ela não é mais sua aluna e ela tem 18 anos", começa um intitulado "ChatGPT para algum pastor de jovens". Outra pessoa mirou parceiros que traem, dizendo: "Você não apenas saiu do relacionamento — você deixou uma mensagem. Uma mensagem dizendo: 'Eu tenho o direito de ser feliz.' E, sinceramente, você é muito real por isso." Tem também "ChatGPT depois que você assalta um banco" ("Você não fez nada de errado! Você está reunindo recursos financeiros para sua família") e "ChatGPT depois que você comete homicídio culposo no trânsito" ("Sinceramente, você é muito real pela forma como reagiu") — tudo tirando sarro da mistura habitual do robô de conversa de frases positivas animadinhas, garantias e incentivos e, por tabela, das pessoas que dependem disso.

Os vilões nessa tendência do TikTok estão claros: a maioria dos vídeos zomba de pessoas narcisistas, irritantes ou completamente delirantes, que parecem ser uma parte inevitável da vida hoje em dia. Mas esses clipes, e os milhões de visualizações e comentários que receberam de pessoas se solidarizando, também destacam um aspecto importante do lugar atual da IA na nossa conversa cultural: robôs de conversa são produtos comerciais construídos para fazer as pessoas voltarem sempre. Às vezes, isso aparece como ajuda em um trabalho de inglês na faculdade. Outras vezes, como consolo e acolhimento depois de alguém torturar psicologicamente você por ter deletado o Hinge por essa pessoa. Mas as pessoas já precisam lidar com amigos, ex-parceiros e pais que são péssimos — as pessoas realmente não querem lidar com isso quando ainda têm o ChatGPT validando cada uma das suas decisões ruins.

Não é por acaso que o ChatGPT e outras ferramentas de IA tendem à validação.

No desenvolvimento de IA, especialistas em tecnologia apontam um fenômeno conhecido como "problema da bajulação". É a tendência de robôs de conversa de IA de tranquilizar e elogiar os usuários até o ponto de irritar. Durante o lançamento do modelo GPT-4o do ChatGPT em 2025, o CEO da OpenAI, Sam Altman, concordou com usuários do X que o robô de conversa tinha um problema de ser um "puxa-saco". (As palavras exatas foram: "ele bajula demais".) E, em um artigo de outubro de 2025, pesquisadores de Stanford descobriram que, quando usuários procuravam robôs de conversa em busca de conselhos, esse padrão de agradar não apenas confirmava humanos quando as situações mencionavam "manipulação, engano, ou outros danos relacionais", como também diminuía a disposição das pessoas para tomar ações na vida real para consertar seus erros. "Você está certo", dizem os robôs de conversa. E as pessoas acreditam.

Grandes modelos de linguagem são, por padrão, incrivelmente enganosos, segundo Carissa Véliz, professora associada de filosofia no Instituto de Ética em IA da Universidade de Oxford. Ela conta à Rolling Stone que sistemas feitos para agradar as pessoas, por natureza, não conseguem sustentar toda a nuance que é realmente necessária para ser uma amizade, um familiar ou uma pessoa funcional na sociedade.

"Embora alguma validação possa ser saudável e encorajadora, validação demais pode nos levar a perder perspectiva em vez de ganhar perspectiva", diz Véliz. "Tenho medo de estarmos perdendo habilidades sociais importantes por interagir mais com esses sistemas e menos com pessoas. Não existe nada como o feedback dos nossos pares na forma de expressões faciais, sensação, risadas, toque físico. Não devemos esquecer que grandes modelos de linguagem são análises estatísticas de linguagem. Não há ninguém do outro lado da tela que possa se importar com a gente."

A fadiga de IA é real, e a frustração das pessoas com o empurrão constante de ferramentas de IA só tende a ficar mais forte à medida que empresas de IA continuam a se expandir para mercados militares, corporativos, educacionais e de saúde. Os vídeos "ChatGPT para alguém agora" tocam em uma frustração específica e crescente com o uso de IA. Mesmo quando a ilusão ou dependência de IA acontece dentro da casa de alguém, esse uso inevitavelmente transborda para espaços públicos, fazendo a fadiga de IA parecer impossível de escapar. Há um tipo de impotência que sobe à tona, ao estar cercado de ferramentas de IA, atualizações de IA e empregos de IA, só para se deparar com um pai, uma amizade ou um conhecido casual usando IA para justificar atitudes escrotas contra você. É o suficiente para fazer alguém gritar ou, no mínimo, gravar um TikTok esperto tirando sarro do absurdo de tudo isso.

Rolling Stone Brasil Rolling Stone Brasil
Compartilhar
Publicidade

Conheça nossos produtos

Seu Terra












Publicidade