

Falar obrigado ao ChatGPT custa caro para a OpenAI – Foto: Gabrielle Tavares/ND
A gentileza custa caro, pelo menos quando se trata de interagir com inteligência artificial. Com o avanço cada vez mais frequente de ferramentas como o ChatGPT, muitos usuários adotam uma postura cordial, agradecendo como se estivessem falando com outra pessoa. No entanto, um simples “obrigado” gera despesas extras para quem mantém os sistemas funcionando.
O próprio CEO da OpenAI, Sam Altman, brincou sobre o assunto na rede social X (antigo Twitter), afirmando que os agradecimentos feitos ao ChatGPT custam dezenas de milhões de dólares em eletricidade.
Por que falar obrigado ao ChatGPT sai caro?
Segundo pesquisadores da Universidade da Califórnia, uma resposta com cerca de 100 palavras gerada por um modelo avançado de IA consome em torno de 140 Wh, o mesmo que manter 15 lâmpadas LED acesas por uma hora.
Agora, imagine esse consumo multiplicado por milhões de interações diárias, inclusive aquelas que não pedem nenhuma informação, mas apenas demonstram educação.
tens of millions of dollars well spent–you never know
— Sam Altman (@sama) April 16, 2025
Para os educados incorrigíveis, ainda existe uma saída, já que os gastos “desperdiçados” não valem para as perguntas elaboradas que acabam com um “por favor”.
O foco está nos agradecimentos e interações adicionais enviadas após uma resposta considerada satisfatória, como se o usuário quisesse dar continuidade à conversa com um elogio ou gesto de gratidão.
Por mais simpático que pareça, cada “valeu” ou “obrigado” exige que os servidores da IA processem uma nova solicitação, gerando custos de energia e computação.
Em uma escala global, o hábito de tratar a IA como um segundo humano pode ter um peso ambiental e financeiro considerável.