O desenvolvimento acelerado da inteligência artificial (IA) e dos modelos de grande escala (LLMs) trouxe à tona um aspecto menos visível porém crucial: a infraestrutura física que sustenta tudo isso — em especial os centros de dados — está exigindo volumes cada vez maiores de energia, água e recursos de resfriamento. Essa realidade impacta não apenas mercados maduros, mas especialmente economias emergentes que buscam crescer digitalmente, como o Brasil.
Segundo análise especializada, os data centers de IA podem consumir de cinco a vinte vezes mais energia do que um data center tradicional, dependendo da carga de trabalho e da eficiência das operações. Esse salto se deve ao fato de que treinar ou executar grandes modelos de IA requer uso intensivo de GPUs ou TPUs, retentor de calor intenso, grande demanda por refrigeração e redes de alta velocidade — e todos esses elementos estão interligados à infraestrutura elétrica e de resfriamento.
No caso da Índia, por exemplo, estima-se que a demanda de energia para data centers de IA alcançará valores expressivos, o que faz com que o país dedique atenção às políticas de geração elétrica, eficiência energética e combate às emissões de carbono.
Para o Brasil, essa tendência vem com vários sinais de alerta e oportunidade. Oportunidade porque o país pode se inserir nessa cadeia global como fornecedor de “infraestrutura verde”, seja por meio de energia renovável, resfriamento natural, ou oferta de data centers de baixo impacto ambiental — isso pode atrair investimentos internacionais. Sinal de alerta porque, se as empresas que montarem data centers não considerarem fatores como eficiência, soberania de dados, conectividade e impacto ambiental, podem enfrentar custos altos de operação, fiscalização regulatória e desafios de escala.
Outro ponto relevante é que esse tipo de infraestrutura exige uma escala mínima para ser eficiente: grandes blocos de servidores, centenas ou milhares de racks, geração elétrica em gigawatts, condicionamento de ar (ou líquido) e logística de manutenção contínua. Em mercados onde o custo da energia é elevado ou a rede elétrica instável, a equação se torna mais desafiadora. A própria análise recente sobre a Índia destaca que “difere da bolha de tecnologia típica” porque trata de ativos tangíveis — terras, prédios, energia — não apenas softwares.
A trigêmea de desafios — energia, resfriamento e localização — torna-se estratégica. Por exemplo: onde será localizado o data center? Será em local de clima ameno para facilitar resfriamento natural? Haverá geração renovável ou o centro dependerá fortemente de combustíveis fósseis? Como será o transporte de dados (fibras, subsea cables)? Qual o impacto para a comunidade local (ruído, impacto térmico, consumo de água)?
Além disso, os reguladores e a sociedade civil estão cada vez mais atentos ao que já é chamado de “infraestrutura tecnológica sustentável”: o simples fato de empreender um centro de dados massivo pode levantar bandeiras ambientais ou de consumo exagerado de recursos. A tendência de “nuvem positiva” (cloud green) e “IA sustentável” ganha espaço.
Por fim, para as empresas de tecnologia, destacar-se não será apenas por ter o “maior servidor” ou “melhor modelo de IA”, mas por ter “o menor custo energético por inferência”, “a menor latência para o usuário”, “o menor impacto ambiental” — e isso pode se tornar diferencial competitivo. No Brasil, onde políticas públicas ainda estão em evolução, e incentivos para centros de dados estão sendo discutidos, acompanhar essas métricas será importante.
A era da IA não se resume à “qualquer algoritmo poderoso”: ela depende de imensas redes físicas — e essas redes têm impactos práticos concretos em energia, ambiente, economia local e geopolítica. Com o mundo cada vez mais digital, parte do que consumimos “na nuvem” tem pegada física, e entender isso é cada vez mais relevante — tanto para consumidores quanto para tomadores de decisão em tecnologia.

