Sam Altman diz que usuários educados do ChatGPT estão queimando milhões dos dólares da OpenAI

Os custos para treinar e operar modelos de inteligência artificial são enormes. Mesmo excluindo todos os fatores, exceto eletricidade, os data centers de IA consomem mais de 100 milhões de dólares por ano apenas para processar os comandos dos usuários e gerar respostas. Então, dizer “por favor” e “obrigado” ao ChatGPT realmente custa milhões para a OpenAI? Resposta curta: provavelmente não.
Nos últimos dias, manchetes alarmantes sobre os custos de ser educado com chatbots como o ChatGPT circularam por aí. Alguns exemplos:
- Sua educação pode sair caro para a OpenAI – TechCrunch
- Dizer “por favor” e “obrigado” ao ChatGPT custa milhões à OpenAI, diz Sam Altman – Quartz
- Ser gentil com o ChatGPT pode ser ruim para o meio ambiente. Veja por quê – Laptop
A origem disso tudo está em um comentário casual que Sam Altman fez no X. Tudo começou com uma pergunta simples: quanto dinheiro a OpenAI perdeu com eletricidade devido a pessoas dizendo “por favor” e “obrigado” aos seus modelos de linguagem?
Altman respondeu: “Dezenas de milhões de dólares bem gastos – vai saber.”
Essa frase curta foi o suficiente para levar sites como New York Post e Futurism a especulações mirabolantes, tentando estimar o custo computacional da gentileza. A lógica é: cada palavra extra adiciona tokens a um comando, e mais tokens exigem mais recursos computacionais. Dado o tamanho da base de usuários do ChatGPT, esses acréscimos aparentemente triviais poderiam somar um valor considerável.
No entanto, vários fatores complicam os cálculos por trás do comentário de Altman. O primeiro é o custo real por token. O ChatGPT informa que o GPT-3.5 Turbo custa cerca de US$ 0,0015 por 1.000 tokens de entrada e US$ 0,002 por 1.000 tokens de saída.
“Please” e “thank you” geralmente adicionam entre dois e quatro tokens no total. Isso resulta em uma fração minúscula de centavo por uso – algo em torno de US$ 0,0000015 a US$ 0,000002 por interação.
Com base em estimativas aproximadas, isso dá cerca de US$ 400 por dia ou US$ 146.000 por ano. Isso está várias ordens de magnitude abaixo dos “dezenas de milhões”.
Quanto aos custos reais de energia, o Instituto de Pesquisa de Energia Elétrica da Administração de Informações sobre Energia dos EUA estima que a conta de eletricidade mensal da OpenAI seja de cerca de US$ 12 milhões, ou US$ 140 milhões por ano. Esse valor cobre todas as interações – não apenas as educadas.
Portanto, embora seja teoricamente possível que mensagens corteses representem mais de US$ 10 milhões por ano, simplesmente não há dados públicos que permitam essa análise. Somente as métricas internas da OpenAI poderiam confirmar isso.
Além disso, a forma como Altman se expressou não foi literal. A frase seguinte – “vai saber” – sugere que foi um comentário irônico. Soa mais como uma aprovação bem-humorada da educação do que uma estimativa financeira real.
Provavelmente, o que ele quis dizer foi que, em uma era em que a gentileza parece cada vez mais rara, talvez valha a pena o custo irrisório – seja de US$ 400 ou US$ 40 milhões. Sim, os bots não têm sentimentos – mas se algum dia a humanidade tiver que responder a uma superinteligência artificial, talvez ela se lembre de quem foi educado – vai saber.