
Nos últimos dois anos, a narrativa de que “a IA vai deixar tudo mais caro” saiu do achismo e entrou nos relatórios de mercado. Consultorias como a TrendForce e fabricantes de chips vêm mostrando que DRAM (RAM) e NAND (armazenamento) subiram forte em 2024 e devem continuar em alta na virada de 2025 para 2026, puxadas principalmente pelos servidores de IA.
O problema: é exatamente o mesmo tipo de memória usado em celulares, notebooks e PCs comuns. Ou seja, cada GPU treinando modelo gigante em data centers de IA está, indiretamente, deixando o seu próximo smartphone, mais caro.
O que é um data center de IA (e por que ele é diferente de um data center “normal”)
Todo serviço de nuvem roda em data centers, galpões cheios de racks, servidores, switches e sistemas de refrigeração. A diferença é que, no caso da IA generativa, esses data centers são projetados para uma coisa só: processar modelos gigantescos, 24 horas por dia.
Um data center de IA típico tem:
- GPUs ou aceleradores de IA em massa, como NVIDIA H100/Blackwell, chips da AMD/Intel etc.
- Bancos enormes de DRAM por servidor (muito mais do que num servidor web tradicional).
- Armazenamento em SSD NVMe em grandes clusters, para alimentar os modelos com dados na maior velocidade possível.
Fabricantes e analistas estimam que os servidores de IA já são o segmento que mais cresce em demanda de DRAM no mundo, superando PCs e celulares.
Por que a IA “devora” tanta RAM e armazenamento
Modelos de linguagem, visão, vídeo e multimodais trabalham com bilhões de parâmetros. Para treinar e depois rodar esses modelos em produção, os data centers precisam de três coisas em quantidade absurda:
HBM e DRAM de alta capacidade
- Cada GPU de IA de última geração costuma vir com HBM (High Bandwidth Memory) empilhada no mesmo módulo.
- Além disso, o servidor inteiro leva centenas de gigabytes de DRAM tradicional para buffers, caches e serviços auxiliares.
- Resultado: um único rack de IA pode consumir tanta memória quanto milhares de celulares juntos.
SSD NVMe e NAND em escala de petabytes
- Conjuntos enormes de dados de treino ficam em arrays de SSD.
- Quanto maior o throughput de leitura e escrita, melhor o uso das GPUs, e mais NAND flash sai da fábrica para atender esses clusters.
Alta disponibilidade
- Como esses serviços geram receita alta, os provedores preferem superdimensionar a memória para não correr risco de gargalo.
- Isso aumenta ainda mais a demanda por chips.
Ou seja: o mesmo wafer de silício que poderia virar RAM de notebook ou NAND de celular está sendo direcionado para placas de servidor e GPUs de IA, onde o lucro por unidade é bem maior.
Do wafer ao seu bolso: como a IA bagunça a cadeia de memória
A cadeia de memória é relativamente concentrada, poucos fabricantes de DRAM e NAND dominam o mercado global. Depois do superciclo de 2021–2022, eles reduziram produção para conter excesso de estoque.
Quando a demanda por IA explodiu:
- Os produtores não tinham capacidade ociosa sobrando para atender tudo de uma vez.
- Eles priorizaram produtos de maior margem, DRAM para servidores, HBM para GPUs e NAND para SSDs de data center.
- Contratos de memória para PCs e celulares ficaram em segundo plano ou tiveram preços reajustados.
Relatórios recentes apontam que:
- Contratos de DRAM para servidores vêm subindo bem acima da média geral do mercado.
- A TrendForce projeta alta contínua nos preços de DRAM e NAND enquanto a demanda de IA seguir aquecida.
Quando o contrato de memória sobe 8–10%, esse aumento não parece gigante. Mas, na prática, ele impacta:
- Custo de BOM (bill of materials) dos smartphones
- Projetos de notebooks com mais RAM/SSD
- Margem de fabricantes que atuam em faixas de preço sensíveis
Muitos fabricantes acabam optando por duas estratégias:
- Subir um pouco o preço final dos aparelhos novos
- Segurar upgrades de memória (por exemplo, manter 8 GB onde poderiam colocar 12 GB) para não estourar o custo
Smartphones e PCs entram na fila
Enquanto os data centers de IA absorvem boa parte da produção de memória:
- Fabricantes de smartphones precisam disputar contratos de DRAM LPDDR5X/LPDDR5T e NAND UFS.
- Marcas de notebooks e desktops competem por DDR5 e SSDs PCIe 4.0/5.0.
Celulares intermediários subindo de patamar de preço
- Modelos que hoje custam algo na casa dos “R$ X mil” podem ficar um degrau acima, mesmo com ficha técnica parecida.
Flagships ainda mais caros (e com foco em IA)
- Como a IA virou argumento de venda, os topos de linha tendem a vir com mais RAM e mais armazenamento, reforçando a pressão nos custos.
Notebooks e PCs gamers sentindo o impacto
- Maiores capacidades de RAM (32–64 GB) e SSDs de 1–2 TB ficam relativamente mais caros, ou seguram o avanço de especificações em modelos custo-benefício.
E o Brasil nessa história?
O Brasil entra na conta com alguns agravantes:
- Dólar e impostos: qualquer alta em dólar, frete ou imposto amplifica o efeito de um aumento de 10% em memória.
- Portfólio reduzido: muitas marcas trazem apenas alguns modelos ao país; se a conta da memória não fecha, aquele aparelho simplesmente não vem.
- Ciclo de troca mais longo: o brasileiro segura mais tempo o mesmo celular/notebook. Quando for trocar, pode encontrar preços mais altos por configuração equivalente.
Na prática, é bem provável ver:
- Intermediários premium com menos armazenamento que versões chinesas/europeias;
- Notebooks com 8 GB de RAM não-expansível permanecendo por mais tempo na faixa “acessível”;
- To pos de linha com preços cada vez mais restritos a um público menor.
A IA já pesa no bolso
Os data centers de IA não são um “monstro abstrato”. Eles são, hoje, os maiores consumidores dos mesmos chips de memória que equipam celulares e PCs. Enquanto o mercado correr para colocar mais modelos generativos na nuvem, a prioridade de produção vai continuar sendo servidor.




