Na vasta fábrica de chips M14 da SK Hynix, trabalhadores em trajes brancos, rosa e azuis inspecionam fileiras de máquinas enquanto 700 robôs se movem rapidamente em trilhos suspensos, transportando wafers (placas) de silício entre diferentes estágios do processo de fabricação.
A fábrica, localizada no campus principal da empresa sul-coreana na cidade de Icheon, produz chips de memória de alta largura de banda (HBM), capazes de transferir dados equivalentes a 200 filmes de longa-metragem a cada segundo.
Por décadas, os chips de memória foram o segmento menos glamouroso da indústria de semicondutores. Mas os projetos HBM, como o HBM3E produzido na fábrica de Icheon, estão transformando a indústria de memória.
Joon-yong Choi, vice-presidente e chefe de planejamento de negócios HBM na SK Hynix, diz que, enquanto na memória de acesso aleatório dinâmico convencional (Dram) “o custo era priorizado pelos clientes em detrimento da energia e desempenho, com o HBM, energia e desempenho são priorizados sobre o custo”.
Eles estão ajudando desenvolvedores dos chamados modelos de linguagem de grande escala a aliviar os efeitos da “barreira de memória” — onde limitações no armazenamento e recuperação de dados são um impedimento para melhorar o desempenho — além de aumentar a eficiência e reduzir custos em milhares de centros de dados em construção ao redor do mundo.
A crescente importância da memória para IA colocou o setor no centro da intensificação da competição entre Washington, que está tentando restringir o acesso chinês à tecnologia de ponta, e Pequim, que está nutrindo um setor doméstico de semicondutores que espera poder competir de igual para igual com rivais globais.
Isso também mudou a ordem histórica dos principais players da indústria. As receitas da SK Hynix provenientes de Dram, da qual HBM é um subconjunto, aumentaram de 7,5 trilhões de wons (US$ 5,4 bilhões) no segundo trimestre de 2021 para 17,1 trilhões de wons no mesmo trimestre de 2025, ultrapassando as de sua grande rival Samsung pela primeira vez desde que os dois grupos coreanos começaram a competir no mercado de memória nos anos 1980.
“A ideia de que a SK Hynix poderia ultrapassar a Samsung teria sido impensável até cinco anos atrás”, diz Chris Miller, professor associado da Universidade Tufts e autor de “Chip War”. “Seria como se a Dr Pepper de repente se tornasse mais popular que a Coca-Cola.”
A Samsung era, até recentemente, a líder indiscutível do mercado fortemente comoditizado de chips Dram, que são alimentados e armazenam dados temporariamente enquanto um processador está em execução. Ela usou sua escala superior para investir em capacidade de produção durante as recessões regulares da indústria cíclica.
Choi explica que, enquanto Dram e chips Nand de menor valor —que armazenam dados por períodos mais longos sem energia— eram as tecnologias dominantes, as empresas também experimentavam produtos mais específicos.
Os chips HBM, que a Hynix começou a desenvolver em 2013, estavam entre eles. Eles envolviam o empilhamento de camadas de unidades Dram conectadas por fios de cobre com um décimo da espessura de um cabelo humano, como uma biblioteca de vários andares com elevadores para transportar rapidamente pilhas de livros entre os andares.
Isso significa que os chips HBM podem oferecer 1.024 caminhos para enviar dados de e para um processador, explica Choi, em comparação com 64 para chips Dram avançados convencionais.
Ray Wang, analista líder de semicondutores da consultoria Futurum Group, também aponta para a adoção precoce pela Hynix de uma tecnologia avançada de ligação chamada mass reflow-molded underfill, ou MR-MUF, como fundamental para seu sucesso em HBM. Envolve o uso de um material de isolamento especial à base de resina para evitar superaquecimento, crucial ao empilhar até 16 chips Dram uns sobre os outros.
O contrato exclusivo da Hynix para o material com seu fornecedor japonês Namics Corporation forçou Samsung e Micron a se contentarem com um processo de fabricação inferior envolvendo altas temperaturas e forças fortes, ambos podendo rachar as camadas de silício e resultar em uma taxa de falha mais alta.
Seu produto superior ajudou a Hynix a garantir sua posição como principal fornecedora de chips HBM para a Nvidia e permitiu que ela aproveitasse o sucesso da empresa americana quando a demanda por chips de IA explodiu após o lançamento do chatbot ChatGPT da OpenAI no final de 2022.
A participação do HBM nas receitas totais de Dram da Hynix passou de cerca de 5% no último trimestre de 2022, segundo pesquisa da Bernstein, para mais de 40% no primeiro trimestre de 2025.
Myron Xie, da consultoria SemiAnalysis, observa que, enquanto os chips HBM3E da Micron já passaram nos rigorosos testes de qualificação para uso nos chips de IA mais avançados da Nvidia, o equivalente da Samsung ainda não passou.
Pessoas próximas à empresa dizem que seu chip HBM3E está prestes a passar nos testes da Nvidia “iminentemente”. Mas também reconhecem que, como jogador dominante no que até recentemente era um mercado comoditizado, a empresa foi pega de surpresa pelas necessidades dos players de IA por soluções de memória mais personalizadas, adaptadas às suas necessidades específicas.
Peter Lee, analista de semicondutores baseado em Seul da Citigroup, explica também que os chips HBM oferecem margens de lucro de cerca de 50-60%, em comparação com cerca de 30% para unidades Dram convencionais.
Como cada chip HBM precisa ser projetado para se adequar à unidade de processamento gráfico de IA específica à qual está emparelhado, os pedidos devem ser feitos um ano antes da produção, tipicamente em contratos de um ano.
“Isso dá às empresas de memória muito mais poder de precificação sobre potenciais clientes do que quando vendem Dram convencional, que pode ser comprado com um mês ou até um dia de antecedência e facilmente trocado pelo produto de um fabricante de chips rival”, acrescenta Lee.
Wang estima que os erros da Samsung lhe custaram dezenas de bilhões de dólares por ano em receita perdida desde o lançamento do ChatGPT.
Se a ascensão do HBM perturbou a velha ordem no topo do mercado de memória, outra fonte de perturbação está emergindo de baixo: a campeã chinesa de memória ChangXin Memory Technologies, ou CXMT.
Com sede em Hefei, na província oriental de Anhui, a CXMT aumentou sua participação no mercado global de Dram de quase zero em 2020 para 5% no ano passado, de acordo com a consultoria Qianzhan, localizada em Shenzhen (China).
Ainda não está claro se o progresso da CXMT em Dram convencional permitirá que ela alcance a Hynix, Samsung e Micron na produção em massa de chips HBM de ponta —um desenvolvimento que potencialmente reduziria a dependência dos desenvolvedores e fabricantes de chips de IA chineses de empresas estrangeiras para componentes críticos.
Na semana passada, o governo dos EUA revogou as isenções que permitiam à Hynix e à Samsung enviar equipamentos de fabricação de chips para suas instalações de fabricação na China sem licença, uma decisão que Wang diz “sublinhar a intenção de Washington de limitar ainda mais o acesso da China à tecnologia de memória”.
Como sinal da importância do HBM para as ambições de IA da China, os grupos de tecnologia e fabricantes de chips do país correram para estocar HBM coreano antes que sua disponibilidade fosse restringida pelos controles de exportação dos EUA em dezembro do ano passado.
Embora chips HBM individuais equivalentes ao padrão HBM2E e superiores não possam mais ser exportados para a China, chips mais avançados podem ser exportados se estiverem pré-empacotados em chips de IA que não excedam certos critérios de desempenho.
Xie, da SemiAnalysis, cita o exemplo do chip H20 da Nvidia, que o presidente dos EUA, Donald Trump, permitiu ser vendido para a China com base no fato de ser “obsoleto”.
Embora o poder de processamento do H20 seja claramente inferior ao H100, seus seis chips Samsung HBM3 integrados na verdade fornecem melhor desempenho de memória: quatro terabytes por segundo de largura de banda de memória, em comparação com 3,4 TBps no H100 e 3,2 TBps no Ascend 910c, carro-chefe da Huawei.
Xie observa que, embora o desempenho de computação seja mais importante para treinar modelos de IA, a memória é amplamente considerada mais importante para a implantação, também conhecida como inferência.
“De certa forma, o H20 é um chip melhor que o H100 porque tem mais capacidade e largura de banda de memória”, diz Xie. “As pessoas ainda se concentram demais na computação, mas isso é apenas um aspecto do desempenho.”