Os workloads de inteligência artificial não pediram licença à infraestrutura existente; simplesmente tornaram-na obsoleta. Um rack de GPU consome hoje dez vezes mais energia do que aquilo para o que a maioria dos data centers foi desenhada e a escassez de capacidade elétrica já está a travar projetos em toda a Europa
|
A economia dos data centers está a ser reescrita, não pela tecnologia em si, mas por aquilo que a alimenta. Durante décadas, a eletricidade foi tratada como uma rubrica de OpEx: previsível, gerível, secundária face ao custo do hardware. Os workloads de Inteligência Artificial (IA) mudaram isso de forma irreversível. Segundo a Gartner, o consumo elétrico global de data centers cresceu 16% só em 2025 e deverá duplicar até 2030, passando de 448 para 980 terawatt/hora. O investimento mundial em data centers deverá ultrapassar os 650 mil milhões de dólares em 2026, um crescimento de 31,7% face ao ano anterior. Por trás destes números está um problema difícil de resolver: um cluster de GPU para treino de IA pode consumir 50 a 100 kW por rack; a infraestrutura de um data center convencional foi desenhada para 5 a 10 kW. A Gartner estima que a escassez de energia vai limitar 40% dos data centers de inteligência artificial até 2027, não por falta de competências ou de hardware, mas por falta de eletricidade. Os hyperscalers, como a Microsoft, a Google e a Amazon, já estão a reservar a capacidade junto das utilities com antecedência de cinco a sete anos. Para os restantes operadores, o tempo de reação é cada vez mais curto. O problema do arrefecimentoDurante anos, o arrefecimento líquido foi uma solução de nicho para high performance computing e ambientes académicos. Em 2025, passou a ser um requisito de projeto para qualquer instalação com ambições de hospedar workloads de IA sérios, onde a transição não é gradual, mas forçada pela física.
A Vertiv refere que os desafios “passam por limitações de potência disponível por rack, gestão de correntes elevadas e monitorização precisa e em tempo real”, explica Mário Vasconcelos, Sales Enterprise Accounts Director para Espanha e Portugal. “As cargas de IA não só aumentam a densidade, como também introduzem perfis de consumo muito dinâmicos, com picos elevados e variações rápidas que colocam sob pressão tanto a distribuição elétrica como a refrigeração convencional baseada em ar”. A resposta da Vertiv passa por uma arquitetura integrada que combina arrefecimento líquido direto ao chip, rear-door heat exchangers para transição progressiva em instalações existentes e sistemas de UPS de elevada eficiência preparados para cargas dinâmicas. Em implementações reais, a abordagem permite suportar racks de 30 kW a 80–100 kW, com eficiências superiores a 95% nos sistemas de alimentação e PUE em intervalos próximos de 1,2-1,3 em designs otimizados. A Legrand entra nesta equação com uma proposta diferente: não uma tecnologia isolada, mas um ecossistema. “O maior desafio é garantir que a energia, arrefecimento e gestão evoluem em conjunto”, afirma Rita Lourenço, Iberia Critical Power Sales Manager na Legrand Data Center Solutions. A empresa integra racks de alta densidade, soluções de contenção de ar quente/frio, rear-door heat exchangers da sua marca USystems, com capacidade de dissipação até 200 kW por rack dependendo da configuração, e PDU inteligentes com monitorização ao nível da tomada individual. “O mercado não está a convergir para uma única tecnologia de arrefecimento, mas sim para arquiteturas híbridas e adaptáveis. O verdadeiro desafio não é escolher entre ar ou líquido, mas assegurar que o data center está preparado para suportar a evolução contínua dos workloads”, alerta Rita Lourenço. “É precisamente nesse ponto que a abordagem integrada cria valor”. Este nível de granularidade não é apenas um detalhe técnico irrelevante, mas também a base para cumprir as obrigações de reporte que a regulação europeia está a impor. De acordo com o relatório “Data Centers: Panorama legal e regulatório da UE e Portugal” publicado pela Cuatrecasas em abril de 2026, o Decreto-Lei n.º 84/2024, em transposição da Diretiva Europeia da Eficiência Energética (2023/1791) e do Regulamento Delegado 2024/1364, obriga os operadores de data centers em Portugal a registar-se na plataforma ReportENER da Comissão Europeia e a reportar anualmente métricas de desempenho energético, incluindo PUE e consumo por potência instalada. A Comissão Europeia tem em consulta pública, até ao final de abril de 2026, um regulamento delegado para criar labels eletrónicos de sustentabilidade para data centers (comparáveis aos que existem para eletrodomésticos), baseados em PUE e WUE (Water Usage Effectiveness). Tanto a Vertiv como a Legrand participam em standards da indústria como ASHRAE e Open Compute Project, o que é reforça a interoperabilidade garantida numa camada de infraestrutura que, por natureza, tem de coexistir com hardware de múltiplos fabricantes. A Legrand suporta protocolos como SNMP, Modbus e Redfish, e os seus PDU integram-se em plataformas DCIM de terceiros. A Vertiv complementa com ferramentas de monitorização unificada como o Vertiv Environet Alert e o Vertiv Unify, que correlacionam dados de consumo, temperatura e utilização independentemente do fabricante do hardware de IT. O argumento do TCO é onde estas abordagens se tornam concretas para quem toma decisões de investimento. “Em implementações de IA, o TCO está a mudar significativamente face aos modelos tradicionais de data center. Tal já não depende apenas do CapEx inicial, mas cada vez mais de fatores como a eficiência energética, a densidade suportada, a capacidade de escalabilidade e a velocidade de implementação”, sublinha Mário Vasconcelos. A Vertiv quantifica o impacto: maiores densidades por rack sem expansão de espaço físico, escalabilidade progressiva sem redesenhar por completo e um melhor aproveitamento da potência instalada. “Isto traduz-se num TCO mais competitivo a médio e longo prazo face a infraestruturas convencionais, especialmente em cargas de IA intensivas, onde a eficiência energética, a densidade e a capacidade de escalabilidade têm um impacto direto na rentabilidade da implementação”, refere.
A Legrand reforça este ponto com base na sua experiência. “Os clientes que adotam uma abordagem integrada conseguem melhorar significativamente a eficiência global do data center, reduzir custos operacionais e aumentar a previsibilidade do investimento a longo prazo”, afirma Rita Lourenço. “Infraestruturas bem dimensionadas e com controlo térmico otimizado contribuem para uma maior longevidade dos sistemas IT, reduzindo intervenções de manutenção e substituição, com impacto direto no TCO ao longo do ciclo de vida”. A camada de computaçãoNo lado dos servidores, o debate entre sistemas integrados e abordagens white-box ganhou uma nova realidade com a inteligência artificial. A complexidade de integração de clusters de GPU, com gestão térmica, interconexões de alta velocidade e orquestração de workloads irregulares, torna o argumento da validação end-to-end mais sólido do que antes. A HPE posiciona-se neste debate com uma proposta que vai além do hardware. “A nossa visão para este tipo de workloads expandiu-se para aquilo que designamos pelas três fábricas de IA: Turnkey AI Factory, AI Factory at Scale e Sovereign AI Factory”, explica Pedro Teixeira, Customer Success & Lifetime Value na HPE Portugal. A infraestrutura de base é a plataforma HPE Cray EX, onde o Direct Liquid Cooling remove calor diretamente de CPU, GPU e interconectores, estendendo-se hoje também à linha ProLiant Gen11.
O argumento central é a redução de complexidade e do tempo de deployment. “Conseguimos entregar ambientes prontos a operar num prazo substancialmente inferior ao de abordagens tradicionais, tipicamente reduzindo projetos de meses para semanas”, afirma Pedro Teixeira. O veículo é o modelo GreenLake com consumo flexível, alinhado com utilização real, que endereça um dos problemas estruturais dos workloads de IA: os padrões de utilização irregulares. “Através da plataforma GreenLake, disponibilizamos um modelo de consumo flexível que permite ajustar capacidade em função das necessidades reais, incluindo recursos de GPU, compute e storage”, diz. O TCO é o argumento decisivo para os CIO que avaliam estas opções. Num ambiente onde os aceleradores depreciam a um ritmo sem precedentes (os ciclos de inovação de GPU encurtaram-se para 12 a 18 meses) o modelo as-a-Service permite alinhar o investimento com a utilização, evitar overprovisioning e facilitar a atualização tecnológica sem reestruturar contratos de capital. “Os ciclos de refresh são adaptados ao ritmo de evolução dos aceleradores”, confirma o representante da HPE Portugal. “O modelo as-a-Service através do GreenLake permite alinhar investimento com utilização, ao evitar overprovisioning e ao facilitar a atualização tecnológica. Complementamos com serviços de suporte avançados, monitorização contínua e manutenção preditiva, adequados a ambientes de elevada densidade”, acrescenta, sublinhando que a infraestrutura de inteligência artificial exige uma abordagem de ciclo de vida diferente da infraestrutura tradicional. Portugal como plataformaA narrativa sobre Portugal como hub europeu de data centers saiu do registo aspiracional em 2025. A Start Campus, operadora do SINES Data Campus em Sines, é o caso mais emblemático. A instalação SIN01 está operacional com 26 MW de capacidade IT, com a SIN02 em construção a visar os 180 MW. A empresa tem 1,5 GVA de energia assegurada para todo o campus, traduzindo-se em 1,2 GW de capacidade IT total. Os números de Omer Wilson, CMO da Start Campus, falam por si. “Implementámos com sucesso racks de 138 kW na nossa instalação SIN01 e conseguimos suportar cargas superiores, até cerca de 600 kW. Estamos a conceber os nossos edifícios em linha com os referenciais da OCP e da Nvidia, para cargas até 600 kW e 1 MW nas próximas fases do campus”, explica. O PUE médio atual é de 1,25, com objetivos abaixo de 1,2 nos próximos 12 meses, um resultado direto do sistema de arrefecimento com água do mar, que é igualmente responsável por um WUE de zero. Em termos de mix de refrigeração, apenas 0,5% da capacidade é assegurada por arrefecimento a ar standard, 18,6% por rear-door heat exchangers e 80,8% por uma combinação de direct liquid cooling e sistemas de arrefecimento a ar para os GPU mais avançados. “Para workloads críticos de IA, os CIO não escolhem apenas espaço e energia: escolhem certeza de execução, escalabilidade de longo prazo e resiliência operacional”, afirma Omer Wilson.
O case study mais recente ilustra o que isso significa na prática. A Start Campus entregou um ambiente de GPU de elevada densidade concebido para workloads Nvidia GB300 de próxima geração no SIN01, evoluindo de um desenho de cerca de 10 kW por rack para uma média de 135–138 kW por rack. “Esta evolução exigiu uma transformação profunda tanto da arquitetura elétrica como da arquitetura de arrefecimento, incluindo a integração rápida de Direct Liquid Cooling, upgrades elétricos significativos e melhorias complementares de infraestrutura”, descreve Wilson. A implementação entregou uma capacidade total de IT de 29,5 MW, com mais de 700 trabalhadores envolvidos na execução, concluída dentro do prazo e do orçamento, mantendo um PUE médio de 1,2. “O resultado foi uma plataforma de IA de elevada densidade, totalmente operacional, que permitiu ao cliente implementar infraestrutura avançada de GPU com rapidez, com a confiança de que o campus poderá continuar a escalar para futuras gerações de IA”, acrescenta. O compromisso da Microsoft com um investimento de mais de dez mil milhões de dólares em Portugal confirmou Sines como nó estratégico na rede de computação europeia da Azure, com 12.600 GPU Nvidia de nova geração previstos para a instalação. Segundo a Copenhagen Economics, o setor poderá contribuir até 26 mil milhões de euros para o PIB português entre 2025 e 2030, com potencial de criação de 48.400 empregos. O fator energético é central nesta equação competitiva. Segundo um relatório da Durgesta, Portugal oferece eletricidade industrial a cerca de 0,11 euros/kWh (menos 60% que a Irlanda e 39% que a Alemanha), com 87% da mistura energética proveniente de fontes renováveis, e acesso a dez cabos submarinos intercontinentais. A conectividade com todos os continentes habitados, incluindo a ligação direta à América Latina via EllaLink e à Google Cloud via cabo transatlântico previsto para 2026, transforma Sines num ponto de convergência de tráfego que até agora contornava o sul da Europa. O quadro regulatórioO contexto legal e regulatório está a tornar-se numa variável de decisão de negócio que os CIO não podem ignorar. O relatório da Cuatrecasas de abril de 2026 sobre o panorama regulatório de data centers em Portugal e na UE aponta que a pressão não vai diminuir e os operadores que anteciparem a conformidade terão vantagem sobre os que a tratarem como custo de compliance. No plano nacional, o Plano Nacional de Centros de Dados e o Plano de Ação 2026–2027 introduz simplificações significativas de licenciamento, com a AICEP como ponto único de contacto para investidores, zonas pré-instaladas com licenciamento já obtido, e ferramentas de monitorização de decisão. O DL 120/2025 reforçou o procedimento excecional de atribuição de capacidade de ligação à rede elétrica em zonas de grande procura, exigindo uma caução de pelo menos 13.500 euros/MW logo no pedido inicial, uma medida que visa bloquear pedidos especulativos e dar prioridade a investimento efetivo. No plano europeu, além das obrigações de reporte energético já em vigor, a Comissão Europeia anunciou o Cloud and AI Development Act para 2026, com o objetivo de acelerar a capacidade de data centers sustentáveis e apoiar serviços de cloud ou IA soberanos na UE. A transposta NIS2, já integrada no ordenamento português pelo DL 125/2025, impõe aos operadores de data centers, enquanto entidades de infraestrutura digital essencial, a criação de sistemas de gestão de riscos e obrigações de reporte de incidentes, com responsabilidade pessoal dos gestores de topo. A Taxonomia Europeia de Sustentabilidade é outro vetor a considerar: o alinhamento com os seus critérios facilita o financiamento bancário com quotas de sustentabilidade e atrai investimento de fundos com mandatos ESG. O que muda para os CIOA infraestrutura de IA criou uma sobreposição de responsabilidades que não existia antes: energia, arrefecimento, computação e compliance deixaram de ser domínios separados e passaram a ser variáveis do mesmo problema. A energia deixou de ser um input para passar a ser uma restrição estratégica. O arrefecimento deixou de ser uma especialidade de gestão de instalações para se tornar uma competência de IT. O TCO de infraestrutura de IA calcula-se agora em termos de eficiência por watt, não de custo por servidor. O quadro regulatório europeu está a criar um sistema de métricas comuns, PUE, WUE, reporte de emissões, que funcionará progressivamente como condição de acesso a financiamento, a contratos públicos e a clientes internacionais. É precisamente esta convergência de pressões que obriga a uma mudança de lógica na avaliação. “Estas soluções de AI Factory permitem que os clientes utilizem as plataformas desde a produção de modelos até à inferência, disponibilizando uma plataforma completa de hardware e software testada e certificada, permitindo às equipas de IA iniciarem os seus projetos de forma mais ágil, célere e resiliente”, explica Pedro Teixeira, da HPE. A infraestrutura de IA deixou de ser uma compra e passou a ser uma plataforma com ciclo de vida próprio, que exige pensar simultaneamente em densidade, eficiência, compliance e escalabilidade desde o primeiro dia. Do lado da operação, Omer Wilson, da Start Campus, traduz isso em termos de decisão, que, diz, se resume “a risco, rapidez e preparação para o futuro. É necessária a capacidade de implementar mais rapidamente, operar de forma mais eficiente, cumprir requisitos de sustentabilidade cada vez mais exigentes e escalar com confiança a longo prazo, tudo dentro de uma única plataforma integrada”. Para os CIO com decisões de infraestrutura à vista, há três perguntas incontornáveis: a localização escolhida tem capacidade elétrica assegurada para os próximos cinco anos? A arquitetura de arrefecimento suporta densidades de 50 kW por rack ou superiores sem redesenho completo? E os sistemas de monitorização produzem dados suficientes para cumprir as obrigações de reporte do DL 84/2024 e do Regulamento Delegado 2024/1364? Quem não tiver respostas concretas para estas três questões pode estar a planear uma infraestrutura para um cenário que já não existe. |