Como os data centers de IA estão encarecendo a memória RAM.

Nos últimos dois anos, a narrativa de que “a IA vai deixar tudo mais caro” saiu do achismo e entrou nos relatórios de mercado. Consultorias como a TrendForce e fabricantes de chips vêm mostrando que DRAM (RAM) e NAND (armazenamento) subiram forte em 2024 e devem continuar em alta na virada de 2025 para 2026, puxadas principalmente pelos servidores de IA.

O problema: é exatamente o mesmo tipo de memória usado em celulares, notebooks e PCs comuns. Ou seja, cada GPU treinando modelo gigante em data centers de IA está, indiretamente, deixando o seu próximo smartphone, mais caro.

O que é um data center de IA (e por que ele é diferente de um data center “normal”)

Todo serviço de nuvem roda em data centers, galpões cheios de racks, servidores, switches e sistemas de refrigeração. A diferença é que, no caso da IA generativa, esses data centers são projetados para uma coisa só: processar modelos gigantescos, 24 horas por dia.

Um data center de IA típico tem:

  • GPUs ou aceleradores de IA em massa, como NVIDIA H100/Blackwell, chips da AMD/Intel etc.
  • Bancos enormes de DRAM por servidor (muito mais do que num servidor web tradicional).
  • Armazenamento em SSD NVMe em grandes clusters, para alimentar os modelos com dados na maior velocidade possível.

Fabricantes e analistas estimam que os servidores de IA já são o segmento que mais cresce em demanda de DRAM no mundo, superando PCs e celulares.

Por que a IA “devora” tanta RAM e armazenamento

Modelos de linguagem, visão, vídeo e multimodais trabalham com bilhões de parâmetros. Para treinar e depois rodar esses modelos em produção, os data centers precisam de três coisas em quantidade absurda:

HBM e DRAM de alta capacidade

  • Cada GPU de IA de última geração costuma vir com HBM (High Bandwidth Memory) empilhada no mesmo módulo.
  • Além disso, o servidor inteiro leva centenas de gigabytes de DRAM tradicional para buffers, caches e serviços auxiliares.
  • Resultado: um único rack de IA pode consumir tanta memória quanto milhares de celulares juntos.

SSD NVMe e NAND em escala de petabytes

  • Conjuntos enormes de dados de treino ficam em arrays de SSD.
  • Quanto maior o throughput de leitura e escrita, melhor o uso das GPUs, e mais NAND flash sai da fábrica para atender esses clusters.

Alta disponibilidade

  • Como esses serviços geram receita alta, os provedores preferem superdimensionar a memória para não correr risco de gargalo.
  • Isso aumenta ainda mais a demanda por chips.

    Ou seja: o mesmo wafer de silício que poderia virar RAM de notebook ou NAND de celular está sendo direcionado para placas de servidor e GPUs de IA, onde o lucro por unidade é bem maior.

    Do wafer ao seu bolso: como a IA bagunça a cadeia de memória

    A cadeia de memória é relativamente concentrada, poucos fabricantes de DRAM e NAND dominam o mercado global. Depois do superciclo de 2021–2022, eles reduziram produção para conter excesso de estoque.

    Quando a demanda por IA explodiu:

    • Os produtores não tinham capacidade ociosa sobrando para atender tudo de uma vez.
    • Eles priorizaram produtos de maior margem, DRAM para servidores, HBM para GPUs e NAND para SSDs de data center.
    • Contratos de memória para PCs e celulares ficaram em segundo plano ou tiveram preços reajustados.

    Relatórios recentes apontam que:

    • Contratos de DRAM para servidores vêm subindo bem acima da média geral do mercado.
    • A TrendForce projeta alta contínua nos preços de DRAM e NAND enquanto a demanda de IA seguir aquecida.

    Quando o contrato de memória sobe 8–10%, esse aumento não parece gigante. Mas, na prática, ele impacta:

    • Custo de BOM (bill of materials) dos smartphones
    • Projetos de notebooks com mais RAM/SSD
    • Margem de fabricantes que atuam em faixas de preço sensíveis

    Muitos fabricantes acabam optando por duas estratégias:

    • Subir um pouco o preço final dos aparelhos novos
    • Segurar upgrades de memória (por exemplo, manter 8 GB onde poderiam colocar 12 GB) para não estourar o custo

    Smartphones e PCs entram na fila

    Enquanto os data centers de IA absorvem boa parte da produção de memória:

    • Fabricantes de smartphones precisam disputar contratos de DRAM LPDDR5X/LPDDR5T e NAND UFS.
    • Marcas de notebooks e desktops competem por DDR5 e SSDs PCIe 4.0/5.0.

    Celulares intermediários subindo de patamar de preço

    • Modelos que hoje custam algo na casa dos “R$ X mil” podem ficar um degrau acima, mesmo com ficha técnica parecida.

    Flagships ainda mais caros (e com foco em IA)

    • Como a IA virou argumento de venda, os topos de linha tendem a vir com mais RAM e mais armazenamento, reforçando a pressão nos custos.

    Notebooks e PCs gamers sentindo o impacto

    • Maiores capacidades de RAM (32–64 GB) e SSDs de 1–2 TB ficam relativamente mais caros, ou seguram o avanço de especificações em modelos custo-benefício.

    E o Brasil nessa história?

    O Brasil entra na conta com alguns agravantes:

    • Dólar e impostos: qualquer alta em dólar, frete ou imposto amplifica o efeito de um aumento de 10% em memória.
    • Portfólio reduzido: muitas marcas trazem apenas alguns modelos ao país; se a conta da memória não fecha, aquele aparelho simplesmente não vem.
    • Ciclo de troca mais longo: o brasileiro segura mais tempo o mesmo celular/notebook. Quando for trocar, pode encontrar preços mais altos por configuração equivalente.

    Na prática, é bem provável ver:

    • Intermediários premium com menos armazenamento que versões chinesas/europeias;
    • Notebooks com 8 GB de RAM não-expansível permanecendo por mais tempo na faixa “acessível”;
    • To pos de linha com preços cada vez mais restritos a um público menor.

    A IA já pesa no bolso

    Os data centers de IA não são um “monstro abstrato”. Eles são, hoje, os maiores consumidores dos mesmos chips de memória que equipam celulares e PCs. Enquanto o mercado correr para colocar mais modelos generativos na nuvem, a prioridade de produção vai continuar sendo servidor.

    Leia também

    Rolar para cima