Simpatia do ChatGPT está custando caro à OpenAI: "por favor" e "obrigado" têm um custo absurdo todo mês
IA consome muito mais recursos do que imaginamos Ser gentil também tem um preço, e não é nada barato
Provavelmente, hoje em dia, navegando pelas redes sociais, você já se deparou com um daqueles memes que dizem tudo com uma imagem: um homem prestes a ser eliminado por robôs é salvo no último momento porque, segundo um deles, "ele sempre dizia obrigado". Um gesto mínimo, quase automático, que o redime diante das máquinas em um futuro distópico e que nos faz sorrir em meio a tantos algoritmos.
Obviamente, não esperamos que robôs assumam o controle do planeta. Mas não é por acaso que essa ideia viralizou. O cinema e a literatura alimentam esse imaginário entre fascínio e medo há décadas. O curioso é que, para além da ficção, há algo de real em tudo isso: ser educado com inteligência artificial (IA) não é de graça. Nossa gentileza, por mais rotineira que seja, custa dinheiro. E não exatamente pouco.
A operação da IA não é exatamente barata
Quando usamos um chatbot de IA, raramente pensamos no consumo de recursos envolvido em cada uma de nossas solicitações. O ChatGPT e outros sistemas semelhantes são alimentados por grandes modelos de linguagem, também conhecidos como LLMs, que operam em data centers equipados com hardware de alto desempenho, como as GPUs H100 da NVIDIA. A execução desses modelos, que tecnicamente é chamada de inferência, requer enorme poder de processamento e, portanto, uma quantidade considerável de eletricidade.
Consumo
A tudo isso se soma o investimento necessário para construir e manter essas infraestruturas, bem como seu impacto ambiental. Sabemos, ...
Matérias relacionadas
Poucos sabem, mas os EUA usam disco rígidos antigos para conseguir terras raras após o veto da China
Elon Musk venceu Sam Altman: OpenAI recua e desiste de se tornar uma empresa com fins lucrativos