A indústria da tecnologia acaba de presenciar um movimento estratégico que pode mudar a forma que os modelos de inteligência artificial (IA) acessam e processam dados em larga escala. A Sandisk e a SK Hynix assinaram um memorando de entendimento (MoU) para desenvolver e padronizar o High Bandwidth Flash (HBF), uma tecnologia que combina a persistência e alta densidade da memória flash NAND com a arquitetura empilhada e de alta largura de banda do HBM (High Bandwidth Memory).

O HBM já é a base em GPUs e processadores avançados por oferecer largura de banda extrema, baixa latência e consumo otimizado. A inovação do HBF é incorporar parte dessas vantagens ao universo do flash NAND, criando uma solução híbrida que promete alta capacidade com eficiência energética.
O HBF substitui parcialmente a DRAM tradicional usada no HBM por memória NAND, resultando em um aumento de capacidade de 8 a 16 vezes, mantendo largura de banda próxima à do HBM puro. Embora a latência seja ligeiramente maior, a troca compensa em cenários que exigem escalabilidade sem aumento proporcional no consumo de energia. Outro ponto chave é a não volatilidade da NAND. Os dados permanecem mesmo sem alimentação elétrica, algo fundamental para data centers dedicados á IA que operam em ambientes com limitações energéticas e térmicas. Essa abordagem ganha ainda mais relevância na borda da rede (edge), onde a eficiência é prioridade.
O protótipo da Sandisk
No Flash Memory Summit 2025, a Sandisk mostrou um protótipo promissor de HBF. Ele foi construído com a tecnologia BiCS NAND, que é um tipo de memória flash empilhada verticalmente para maximizar densidade e desempenho. Além disso, usa a arquitetura CBA (Circuit Bonding Architecture), que permite uma integração física compacta, possibilitando que o HBF ocupe espaços antes exclusivos para o HBM tradicional. Essa junção de tecnologias mostra que o HBF não é apenas uma ideia, mas uma solução concreta, pronta para enfrentar os desafios das próximas gerações de data centers e dispositivos na borda da rede.

O HBF não surge por acaso, ele segue uma tendência do setor em buscar memórias mais versáteis para IA. O projeto já recebeu prêmios e criou um conselho consultivo técnico para definir padrões e estratégias abertas. A previsão é que amostras cheguem ao mercado em 2026 e que os primeiros produtos comerciais apareçam em 2027. Fabricantes como Nvidia podem adotar a tecnologia rapidamente, aproveitando a parceria histórica com a SK Hynix.
A presença de nomes como Raja Koduri no conselho do HBF indica ambições direto no design de chips para IA. Paralelamente, concorrentes como a Samsung trabalham em soluções próprias, como o PBSSD e o futuro HBM4. O High Bandwidth Flash não é apenas mais um avanço incremental, ele sinaliza uma mudança de paradigma. Ao unir a alta largura de banda do HBM com a persistência e densidade do NAND, o HBF cria um novo tipo de memória capaz de reduzir custos, economizar energia e viabilizar aplicações antes limitadas pela disponibilidade da DRAM.
Se a padronização for bem sucedida, a tecnologia poderá se tornar onipresente em data centers, GPUs e dispositivos de borda, abrindo caminho para modelos de linguagem cada vez maiores e mais eficientes. Mais do que atender à demanda atual, o HBF poderá moldar a infraestrutura da IA para a próxima década, onde capacidade, eficiência e escalabilidade serão tão valiosas quanto o próprio poder de processamento.
Com a crescente demanda por modelos de Inteligência Artificial que exigem mais memória, o HBF oferece uma alternativa escalável e mais econômica para ampliar a memória de sistemas de inferência de IA, sem depender exclusivamente de soluções caras e energicamente intensivas como a DRAM pura. Ele é especialmente útil em contextos onde há limitações térmicas e energéticas como data centers verdes ou dispositivos de inferência na borda da rede (edge).
Abaixo está uma tabela comparativa com o HBM, DRAM (DDR) e o novo HBF (High Bandwidth Flash), destacando suas principais características:
Característica | HBM | DRAM (DDR) | HBF (High Bandwidth Flash) |
---|---|---|---|
Largura de banda | Muito alta | Moderada | Alta (similar ao HBM em algumas aplicações) |
Consumo energético | Mais eficiente por bit | Mais alto | Muito eficiente, especialmente em cargas de inferência |
Forma física | Empilhamento 3D com TSV | Chips laterais (2D) | Empilhamento 3D com NAND + arquitetura CBA |
Persistência | Volátil | Volátil | Não volátil (mantém dados sem energia) |
Capacidade | Limitada (até centenas de GB) | Limitada (escala com custo) | Muito alta (8–16× mais que HBM no mesmo espaço físico) |
Custo | Alto | Mais acessível | Mais baixo que HBM por GB, mas ainda em validação |
Latência | Muito baixa | Baixa | Moderada (maior que DRAM, menor que SSD tradicional) |
Uso principal | IA, HPC, GPUs premium | PCs, servidores comuns | Inferência de IA, edge computing, data centers eficientes |