Seja Bem Vindo - 18/04/2026 21:12

  • Home
  • Política
  • Construção de Data Centers do Google Pode Ultrapassar US$ 1 Trilhão

Construção de Data Centers do Google Pode Ultrapassar US$ 1 Trilhão

Em uma teleconferência de resultados no mês passado, o CEO do Google, Sundar Pichai, afirmou que a empresa gastaria até US$ 185 bilhões em despesas de capital (CapEx) relacionadas à IA este ano — um número de cair o queixo, que é mais que o dobro dos US$ 90 bilhões gastos em 2025. Mas isso pode ser apenas o começo. Ao longo dos próximos anos, os gastos com data centers da gigante de tecnologia somarão um “investimento significativo”, afirma Amin Vahdat, o recém-nomeado Tecnólogo-Chefe de infraestrutura de IA do Google, à Forbes, em sua primeira entrevista no cargo recém-criado.

“Em números simples, se houver uma estimativa de 10 anos, e estivermos na casa dos US$ 175 a US$ 185 bilhões este ano, pode-se imaginar, assumindo que isso não vai diminuir, que isso pode chegar a um valor bem alto ao longo de 10 anos”, diz ele.

Nós fizemos as contas. A US$ 185 bilhões por ano, em oito anos, o Google estaria gastando US$ 1.5 trilhão, um pouco mais do que a OpenAI se comprometeu a gastar no mesmo período. Estenda isso para 10 anos, como Vahdat mencionou, e o Google estaria gastando US$ 1.9 trilhão.

Vahdat deixa claro que isso “não é uma promessa” de que o Google gastará tanto nos próximos 10 anos. Mas a visão de longo prazo que ele adota sugere a magnitude da aposta do Google. “O ponto aqui é que nós, no Google, estamos investindo nos níveis mais altos”, diz ele.

Há uma grande diferença entre as ambições de data centers do Google e as da OpenAI: o Google é uma máquina de fazer dinheiro. No quarto trimestre, a Alphabet, controladora do Google, faturou US$ 113 bilhões em receita; para o ano completo, as vendas ultrapassaram US$ 400 bilhões pela primeira vez na história de mais de 25 anos da empresa. Em comparação, a OpenAI está gastando em níveis semelhantes e gerou apenas cerca de US$ 13 bilhões em receita no ano passado — uma fração minúscula da receita do Google e menos da metade das reservas de caixa do Google.

A demanda aparentemente insaciável por processamento tem sido a força econômica central da era da IA. Ela fez o valor de mercado da Nvidia disparar para impressionantes US$ 4.5 trilhões. O Projeto Stargate, um esforço da OpenAI, SoftBank e Oracle para construir US$ 500 bilhões em infraestrutura de IA nos EUA, tem sido uma iniciativa tecnológica de destaque no início do segundo mandato do presidente Trump, embora relatos indiquem que o progresso do esforço tenha estagnado. No total, as big techs podem injetar cerca de US$ 500 bilhões em data centers de IA e chips apenas este ano, de acordo com um relatório da Goldman Sachs.

“É justo dizer que a demanda por TPUs em nuvem tem sido sem precedentes.”

— Amin Vahdat, Google

A expansão da infraestrutura é tão vasta que é importante pensar nela em um horizonte de longo prazo, diz Vahdat. Construir um único data center pode levar vários anos. A energia precisa ser garantida com muita antecedência. Parte desse gasto irá imediatamente para chips e equipamentos de processamento de dados em data centers existentes, diz ele, enquanto parte financiará novas unidades. Na semana passada, por exemplo, o Google fechou acordos com a AES e a Xcel, duas fornecedoras de serviços públicos, para fornecer energia aos seus data centers em todo o país.

Veterano de 15 anos no Google, Vahdat ingressou na empresa após uma carreira acadêmica como pesquisador e professor, com passagens pela Duke, pela University of Washington e pela UC San Diego (além de ter feito um estágio inicial na Xerox Parc, o lendário laboratório de pesquisa do Vale do Silício). Ele entrou no Google em 2010 para trabalhar em redes de computadores e subiu na hierarquia até assumir as rédeas das TPUs (Tensor Processing Units), os chips de IA customizados da gigante tecnológica. Em dezembro, ele foi promovido para supervisionar a estratégia de infraestrutura de IA, que inclui desenvolvimento e otimização de chips, construção de data centers e investimentos em energia — respondendo diretamente ao CEO Sundar Pichai.

Anteriormente, as TPUs do Google eram usadas apenas internamente para a própria infraestrutura da empresa — para alimentar aplicativos de consumo como Gmail e YouTube e, eventualmente, treinar carros autônomos e desenvolver e rodar modelos de IA como o Gemini. Agora, elas são um dos recursos padrão do setor: talvez não tão populares quanto os chips Blackwell de ponta da Nvidia, mas ainda úteis para pré-treinamento e operação de modelos de IA em escala.

O Google começou a vender acesso a elas por meio de um serviço de nuvem em 2018, permitindo que outras empresas alugassem poder de processamento. Recentemente, porém, o Google fechou acordos de alto nível, como um grande contrato com a Anthropic, e estaria em negociações com a Meta para o uso de seus chips. Em dezembro, o Morgan Stanley estimou que as TPUs poderiam gerar US$ 13 bilhões para o Google até 2027. “É justo dizer que a demanda por TPUs em nuvem tem sido sem precedentes”, diz Vahdat, particularmente nos últimos anos.

O ponto central da expansão dos data centers é garantir a energia necessária para alimentá-los — frequentemente um alvo importante de críticos. Em agosto, Vahdat, o cientista-chefe do Google Jeff Dean e outros 10 pesquisadores e executivos da empresa co-publicaram um artigo visando contextualizar o consumo voraz de energia da IA. O artigo afirma que o prompt médio para o modelo de IA Gemini, do Google, usa a mesma quantidade de energia necessária para alimentar 9 segundos de televisão e consome cerca de cinco gotas de água, o que eles escrevem ser “substancialmente menor do que muitas estimativas públicas”.

(Um relatório afirma que grandes data centers podem consumir até 19 milhões de litros por dia, o equivalente ao uso de água de uma cidade com até 50.000 habitantes.)

Devido à repercussão negativa, outras gigantes da IA prometeram pagar mais pela eletricidade: no mês passado, a rival Anthropic, fabricante do respeitado chatbot Claude, comprometeu-se a estimar e cobrir os custos dos aumentos nos preços de energia para o consumidor que possam advir do seu uso de energia. “Fiquei muito feliz em ver esse anúncio da Anthropic”, diz Vahdat. Ele acrescentou: “Daremos mais detalhes sobre nossa posição em relação a isso em breve.”

O maior desafio que o Google enfrenta, argumenta Vahdat, não é simplesmente escalar, mas redesenhar como a própria infraestrutura é construída. Nos próximos cinco anos, ele espera que os data centers deixem de ser construções sob medida e passem a ter designs mais modulares e repetíveis — projetos padronizados capazes de serem replicados globalmente em uma velocidade sem precedentes. Esse é o tipo de aposta que pode ajudar a consolidar o lugar do Google como um competidor primário na corrida da IA por muitos anos.

*Matéria publicada originalmente em Forbes.com



Clique aqui para ver a Fonte do Texto

VEJA MAIS

Vai dar praia? Como fica o tempo em São Paulo neste domingo

O domingo (19/4) começa com predomínio de sol e poucas nuvens em todo o estado…

Minas devolve 5 mil animais silvestres à natureza todo ano

Belo Horizonte – Todo ano, cerca de 5 mil animais silvestres são devolvidos à natureza…

veja os melhores momentos de Altos-PI x Ferroviário-CE

O Altos-PI venceu o Ferroviário-CE por 1 x 0, pelo Grupo A7, na tarde deste…