Pontos-chave
- A OpenAI fechou um acordo de 38 mil milhões de dólares com a Amazon Web Services (AWS) para garantir infraestrutura de computação nuvem.
- A OpenAI obtém acesso a centenas de milhares de GPUs da Nvidia para treinar e escalar os seus modelos de IA de próxima geração.
- O acordo reforça a posição da AWS na corrida da IA e destaca a crescente centralização do poder de computação entre as principais nuvens tecnológicas.
O que é o acordo OpenAI-AWS: Uma aposta de 38 mil milhões de dólares em computação por sete anos
A OpenAI assinou um acordo de serviços de nuvem de sete anos no valor de 38 mil milhões de dólares com a Amazon Web Services (AWS), garantindo acesso a centenas de milhares de GPUs da Nvidia para treinar e implementar os seus modelos de próxima geração. O acordo, anunciado na segunda-feira, marca o movimento estratégico mais significativo da OpenAI desde a sua reestruturação corporativa na semana passada, que deu ao criador do ChatGPT maior independência financeira e reduziu o controlo da Microsoft sobre as suas operações.
Segundo o acordo, a AWS começará a fornecer aceleradores Nvidia GB200 e GB300 em clusters de centros de dados dedicados, com capacidade total prevista para estar online até ao final de 2026 e espaço para escalar até 2027. Para a Amazon, o acordo sinaliza um retorno decisivo na corrida da IA. Para a OpenAI, representa o maior contrato de computação já assinado por uma empresa privada de IA.
A parceria impulsiona instantaneamente a AWS de volta ao centro da infraestrutura de IA, contrariando os receios de que tivesse ficado atrás do Microsoft Azure e do Google Cloud. As ações da Amazon subiram 5% na terça-feira, adicionando quase 140 mil milhões de dólares ao seu valor de mercado — o seu maior rally de dois dias em anos.
A nova moeda da inteligência: Computação
Se os dados foram o petróleo da era digital, a computação é a sua eletricidade. "Escalar a IA de fronteira requer computação massiva e confiável", disse Sam Altman, CEO da OpenAI, em comunicado. Essa frase resume a lógica por trás do acordo: na corrida pela inteligência artificial geral (AGI), o acesso à capacidade de computação — não os algoritmos — agora define a liderança.
A OpenAI planeia implementar mais de 30 gigawatts de poder de computação na próxima década, com um investimento de capital de aproximadamente 1,4 biliões de dólares. Altman propôs uma meta audaciosa: adicionar um gigawatt de computação por semana, a um custo atual que excede 40 mil milhões de dólares por GW. Para colocar isso em perspetiva, cada gigawatt poderia alimentar cerca de 830.000 casas nos EUA.
Esta escala converte a computação num mercado de capital próprio. Capitalistas de risco, fundos soberanos e gigantes da tecnologia estão a negociar capacidade de infraestrutura como futuros energéticos. A economia de inteligência mundial — desde o treino de grandes modelos de linguagem até ao atendimento de milhares de milhões de consultas diárias de IA — agora depende da capacidade de garantir, financiar e operar centros de dados densos em GPUs em escala planetária.
Por que importa: A espiral de centralização
O acordo AWS-OpenAI cristaliza uma realidade desconfortável: a indústria de IA está a consolidar-se em torno de um punhado de nuvens de hiperescala, fornecedores de chips e provedores de modelos. Microsoft, Amazon e Google agora estão no centro de um circuito fechado onde dinheiro, computação e inteligência circulam entre as mesmas poucas redes.
Cada nova iteração de modelo exige exponencialmente mais computação. Cada salto em computação requer despesas de capital de vários milhares de milhões de dólares. O resultado é um ciclo de feedback que privilegia os incumbentes e eleva as barreiras de entrada para todos os outros.
Eric Yang, CEO da Gradient — uma rede de pesquisa de IA descentralizada apoiada pela Pantera Capital e Multicoin Capital — descreveu o fenómeno de forma sucinta:
"A escala destes novos acordos de nuvem mostra como a IA rapidamente se tornou um mercado de capital por direito próprio. Os maiores players da indústria estão agora efetivamente a negociar poder para controlar a inteligência da mesma forma que outros negociam energia — concentrando enorme poder financeiro e operacional em poucos fornecedores. O próximo desafio é garantir que a própria inteligência não fique presa lá."
As palavras de Yang sublinham uma crescente divisão filosófica: o futuro da IA deve pertencer a nuvens centralizadas ou a sistemas distribuídos e soberanos que funcionam em redes e dispositivos independentes?
De aberta a opaca: A mudança estrutural da OpenAI
O momento do acordo com a AWS segue a ampla reestruturação da OpenAI, que distancia a empresa do seu estatuto original sem fins lucrativos. A reorganização remove o "direito de primeira recusa" da Microsoft para fornecer serviços de nuvem e posiciona a OpenAI para captar capital externo mais livremente — incluindo um potencial IPO de 1 bilião de dólares, segundo a Reuters.
Desde a sua fundação em 2015, a trajetória da OpenAI espelhou a evolução mais ampla da própria IA: de coletivo de pesquisa aberta a plataforma com fins lucrativos. O lançamento do ChatGPT no final de 2022 tornou a IA um conceito doméstico, impulsionando a taxa de receita da empresa para 20 mil milhões de dólares até o final de 2025. No entanto, continua a dar prejuízo, em grande parte devido ao imenso custo de treino e inferência de modelos.
Ao diversificar para além da nuvem Azure da Microsoft — enquanto ainda compromete 250 mil milhões de dólares para computação Azure como parte da reestruturação da semana passada — a OpenAI está a proteger-se contra riscos operacionais e a amplificar a intensidade de capital. Também tem acordos secundários com o Google Cloud e a Oracle, este último supostamente no valor de 300 mil milhões de dólares ao longo de cinco anos. No total, os compromissos futuros de computação da OpenAI excedem 600 mil milhões de dólares — o maior da história para uma única empresa de IA.
O renascimento da AWS na corrida armamentista da IA
Para a Amazon, o acordo é um arco de redenção. A AWS continua a ser o maior provedor de nuvem do mundo por participação de mercado, mas os analistas começaram a questionar as suas credenciais em IA à medida que Microsoft e Google anunciavam parcerias mais chamativas com os principais desenvolvedores de modelos.
O contrato de 38 mil milhões de dólares muda essa narrativa. Traz a OpenAI — a joia da coroa da revolução da IA generativa — para a órbita da Amazon, mesmo enquanto a Amazon continua a apoiar a rival Anthropic com os seus próprios investimentos de vários milhares de milhões de dólares. A plataforma Bedrock da AWS já hospeda modelos da Anthropic, Meta, Cohere, Stability AI e Mistral AI. Agora adiciona as cargas de trabalho da OpenAI, reforçando a estratégia da Amazon de ser a "camada de infraestrutura neutra" para IA.
A curto prazo, o acordo promete maior utilização dos chips especializados e instâncias de GPU da AWS. A longo prazo, posiciona a Amazon como o fornecedor de utilidades indispensável para cargas de trabalho de IA — o mesmo papel que desempenhou para as startups da internet há duas décadas.
A competição da OpenAI: Titãs e desafiadores
O panorama competitivo em 2025 é feroz. A Anthropic, apoiada pela Amazon e Google, está a treinar os seus próximos modelos da série Claude nos superclusters TPU v6 do Google. A xAI de Elon Musk está a escalar o seu modelo "Grok" nas GPUs H100 e B200 da Nvidia hospedadas pela Oracle. A startup francesa Mistral AI, recém-saída de uma ronda de 600 milhões de dólares, está a seguir o caminho dos pesos abertos, lançando modelos totalmente acessíveis que podem funcionar em hardware menor.
A OpenAI continua a ser o benchmark para desempenho de modelos fechados, mas o campo está a apertar. Os modelos proprietários da empresa — GPT-4 e o próximo GPT-5 — requerem orçamentos massivos de inferência que podem exceder até mesmo a capacidade global do Azure da Microsoft. Ao adicionar a AWS à sua mistura de infraestrutura, a OpenAI garante redundância e crescimento paralelo — mas também sinaliza que nenhum fornecedor único pode atender sozinho às suas demandas de escala.
Enquanto isso, startups como Together AI, Lambda Labs e CoreWeave (agora avaliada em 20 mil milhões de dólares após a participação da Nvidia) estão a oferecer computação de alto desempenho boutique para treino de modelos especializados. Esta proliferação sugere um ecossistema em que a computação se torna a mercadoria e a orquestração o diferenciador.
A economia de uma corrida armamentista de computação
O desenvolvimento de modelos de IA tornou-se a fronteira mais intensiva em capital do setor tecnológico. O preço das GPUs, energia e refrigeração transformou a infraestrutura de IA no novo campo petrolífero da economia digital.
A Nvidia continua a ser o fornecedor dominante, controlando mais de 80% do mercado de chips de IA de alta gama. Os seus mais recentes sistemas GB200 Grace Blackwell são projetados para modelos de trilhões de parâmetros e oferecem até 30 vezes o desempenho da geração H100 anterior. A AWS planeia implementar estes chips em escala sem precedentes para os clusters da OpenAI.
As implicações financeiras são impressionantes. De acordo com a Morgan Stanley, o investimento global em infraestrutura de IA poderá ultrapassar 2 biliões de dólares até 2030, impulsionado por hiperescaladores e programas de IA soberana. Só a OpenAI poderia representar 20% da procura total de GPUs em 2026.
Esta concentração tem efeitos colaterais: consumo de energia crescente, custos ambientais e potenciais pontos de estrangulamento na cadeia de abastecimento. Os países já estão a competir pela fabricação de chips, acesso à rede elétrica e direitos de água para refrigeração de centros de dados — ecoando a geopolítica do petróleo no século XX.
IA Descentralizada: O contramovimento ganha terreno
À medida que a concentração na nuvem acelera, um novo ecossistema está a surgir em oposição — um que combina infraestrutura blockchain, computação distribuída e IA de borda. O objetivo: tornar a inteligência soberana, ou seja, controlável por indivíduos e comunidades em vez de monopolizada pelas nuvens.
Projetos como Gaia AI, Bittensor, Fetch.ai e io.net estão a construir redes peer-to-peer onde os recursos de computação podem ser agrupados, negociados e alocados de forma transparente através de tokens. A Render Network descentraliza a renderização de GPU; Gensyn e Akash Network fornecem mercados abertos para computação de treino; Cerebras e Tenstorrent experimentam aceleradores de IA modulares e localmente implementáveis.
O apelo está na resiliência e autonomia. Se a infraestrutura de inteligência espelhar o oligopólio de nuvem atual, as sociedades arriscam-se a ceder tanto dados quanto tomada de decisões para algumas plataformas corporativas. A IA Descentralizada defende o oposto: um mundo onde os modelos vivem em vários dispositivos, governados por protocolos abertos em vez de APIs proprietárias.
Até as principais instituições estão a prestar atenção. A iniciativa "IA Soberana" da UE e o programa "IA de Borda" do Ministério da Economia do Japão enfatizam o controlo local sobre o treino e inferência de modelos. O objetivo não é desmantelar as nuvens, mas equilibrá-las.
Poder, política e a próxima onda de regulamentação
A expansão da infraestrutura da OpenAI levanta questões regulatórias e ambientais. O treino de modelos de fronteira consome imensa eletricidade — estima-se 10-15 GWh por iteração de modelo — e gera pegadas de carbono significativas. Os governos estão a começar a examinar a pegada física da IA tão de perto quanto a sua ética de dados.
Nos Estados Unidos, a Comissão Federal de Comércio e o Departamento de Energia abriram conjuntamente inquéritos sobre a "concentração de computação" e seus efeitos na inovação e segurança energética. A Lei de IA da Comissão Europeia poderá em breve exigir a divulgação da origem da computação e métricas de carbono para modelos acima de uma certa escala.
Estas medidas poder

