Há dois dias, contamos algo muito interessante: o jornal estatal chinês Securities Times revelou que a Huawei estava prestes a revelar um avanço tecnológico com o objetivo de reduzir a dependência da China de chips de memória HBM (High Bandwidth Memory) do exterior. De acordo com a fonte, a Huawei deveria revelar oficialmente seu avanço tecnológico algumas horas depois, durante o Fórum de Aplicação e Desenvolvimento de Raciocínio de IA Financeira de 2025, em Xangai, China.
A Huawei cumpriu sua promessa, embora não exatamente como esperávamos. De qualquer forma, antes de entrarmos em detalhes, é importante lembrar que os fabricantes chineses de chips de memória não estão produzindo soluções capazes de competir com os produtos de memória mais avançados fabricados pelas empresas sul-coreanas Samsung e SK Hynix, ou pela empresa americana Micron Technology. As GPUs de IA trabalham em conjunto com os chips de memória HBM. Na verdade, seu desempenho é amplamente determinado por esses chips de memória.
Como explicam os editores da SemiAnalysis, a largura de banda total dos chips de memória HBM3, que coexistem com algumas das GPUs de IA mais avançadas da NVIDIA ou AMD, ultrapassa 819 GB/s, enquanto as memórias DDR5 e GDDR6X atingem valores bem mais modestos: 70,4 GB/s e 96 GB/s. As memórias HBM3E e as futuras HBM4 são ainda melhores. Os fabricantes chineses desse tipo de memória ainda não produzem essa classe de memórias, mas parece que a Huawei vai mudar radicalmente esse cenário.
...
Matérias relacionadas