A sede da IA por água é altamente preocupante, mas pode se resolver

Copia de Contra Capa 6

Sua dependência energética, por outro lado, só parece piorar

Já um assunto abstrato de ficção científica e pesquisa acadêmica, o conceito de inteligência artificial se tornou o tópico de conversas de mesa nos últimos dois anos.

Essa mudança trouxe ampla conscientização das implicações ambientais dessa tecnologia, centrada principalmente nas enormes quantidades de energia e água necessárias para treinar e implantar esses modelos. E é compreensível por quê.

Um relatório recente descobriu que o consumo de água dos data centers na Virgínia do Norte, a capital mundial dos celeiros de bits, aumentou em dois terços nos últimos cinco anos.

“O ChatGPT precisa ‘beber’ uma garrafa de 500 ml de água para uma conversa simples de aproximadamente 20 a 50 perguntas e respostas, dependendo de quando e onde o ChatGPT é implantado”, estimaram os pesquisadores em um artigo publicado no início do ano passado.

Para piorar as coisas, isso era para um modelo GPT-3 de classe medindo aproximadamente 175 bilhões de parâmetros, um número que parece positivamente pequeno pelos padrões de hoje. Estima-se que o GPT-4 tenha entre 1,7 e 1,8 trilhão de parâmetros de tamanho e, como Trevor Cai, da OpenAI, disse em sua palestra principal na Hot Chips na semana passada, esses modelos só vão ficar maiores.

Embora isso não seja um bom sinal para o consumo de energia dos data centers, o mesmo pode não ser verdade para sua dependência de H2O. Pelo menos, não precisa ser.

Primeiro, vamos tirar algo do caminho antes que os comentários apontem o óbvio. Os data centers realmente não consomem água. O problema real é que a água está sendo removida do ambiente local em vez de ser devolvida à sua fonte. Em segundo lugar, a infraestrutura de TI, relacionada à IA ou não, não é realmente o que está consumindo a água.

Mesmo quando resfriados a líquido, esses sistemas geralmente são circuitos fechados que perdem pouca ou nenhuma quantidade apreciável de fluidos durante a operação normal. O que realmente está engolindo toda essa H2O são os manipuladores de ar do celeiro de bits, muitas vezes chamados de refrigeradores evaporativos ou pantanosos, usados ​​para manter esses sistemas de superaquecimento.

No entanto, é importante observar que esta é uma decisão de design e os refrigeradores evaporativos não são usados ​​em todas as instalações. Se a Meta ou a Amazon estiverem instalando um data center de IA em seu quintal, elas colocarão pressão na sua rede elétrica local, mas isso não significa necessariamente que elas vão sugar um quarto do abastecimento de água da sua cidade como o Google faz em The Dalles, Oregon.

Em climas mais frios, refrigeradores secos e o chamado “resfriamento gratuito” são adequados, enquanto em regiões mais quentes e propensas à seca, não é incomum ver operadores de DC optando por sistemas refrigerados. Da última vez que ouvimos falar, isso é exatamente o que a Microsoft está fazendo com seus desenvolvimentos de DC em Goodyear, Arizona, embora apenas após uma disputa de águas residuais com a cidade.

Embora existam alternativas ao resfriamento evaporativo, muitas delas ocorrem à custa de um maior consumo de energia, uma commodity já em falta, como relatado recentemente pela CBRE.

Embora haja muito a ser feito sobre as instalações de DC existentes, a decisão de empregar resfriamento evaporativo em novas construções acaba sendo uma questão de ganância ou, para usar a expressão politicamente correta, capitalismo.

Para as hiperscalers em particular, tudo eventualmente se resume a margens. Se você puder fazer algo 5% mais barato ou mais eficiente do que a concorrência, você pode ganhar muito mais em lucros ou reduzi-los e conquistar sua base de clientes. E a água simplesmente é incrivelmente eficiente na remoção de calor do ar em comparação com tecnologias alternativas. Isso significa custos de eletricidade mais baixos ou a capacidade de construir instalações maiores e mais densas em locais com restrição de energia.

Mesmo com taxas industriais, os custos de eletricidade aumentam rapidamente. Portanto, em mercados onde os refrigeradores evaporativos são viáveis, a tecnologia oferece uma vantagem competitiva.

O argumento também pode ser feito de que o consumo de água do refrigerador evaporativo é uma troca valiosa se isso significa queimar menos combustíveis fósseis para manter as luzes acesas, mas isso depende muito da localização. A natureza do resfriamento evaporativo significa que eles são mais eficientes em climas áridos onde a água já é um recurso escasso.

Em última análise, tudo se resume a isso: você pode usar mais energia ou consumir mais água. Se a água for mais barata que a energia e, melhor ainda, percebida como abundante, como em torno dos Grandes Lagos, você pode adivinhar quais operadores escolherão.

No entanto, isso pode estar mudando. O ritmo da inovação da IA não parece que vai diminuir tão cedo. Neste clima, vimos chips ficarem cada vez mais quentes, passando a marca de um quilowatt e impulsionando uma transição para o resfriamento líquido.

Os Grace Blackwell Superchips da Nvidia que analisamos na GTC são avaliados em 2.700 W, com dois deles projetados para caber em um único chassi RU. Para acomodar esse pacote incrivelmente denso, a Nvidia optou surpreendentemente pelo resfriamento líquido direto (DLC).

Embora indiscutivelmente melhor em termos de eficiência operacional – o DLC é substancialmente mais eficiente em termos de energia do que queimar energia em ventiladores – também apresenta grandes dores de cabeça para os operadores de data centers, pois muitas instalações mais antigas não podem ser facilmente modernizadas para acomodar essa tecnologia.

Embora isso seja uma dor de cabeça para alguns, a adoção generalizada do resfriamento líquido, talvez ironicamente, tem o potencial de reduzir o consumo de água a longo prazo. Isso ocorre porque o coeficiente térmico mais alto do resfriamento líquido permite o uso de refrigeradores secos, que funcionam um pouco como um radiador de carro, mas em escala industrial.

Há também o potencial de reutilização de calor nesses cenários. Em um experimento mental apresentado na SC23, foi estimado que treinar um modelo do tamanho do GPT-3 poderia gerar calor suficiente para alimentar cerca de 4,6 estufas e cultivar mais de um milhão de tomates. Vimos outros exemplos de data centers contribuindo para redes de aquecimento distrital também.

No entanto, até que uma massa crítica de sistemas refrigerados a líquido seja implantada, provavelmente continuaremos vendo manchetes sobre o consumo de água dos data centers para melhor ou pior.

Foto de Marcelo Roncate
Foto de Marcelo Roncate O autor:

Redator desde 2019. Entusiasta de tecnologia e criptomoedas.