Nem RAM e nem energia: o problema da IA é que o nó N3 da TSMC está absolutamente saturado
Os chips de memória HBM4e buscam acabar de uma vez por todas com um dos gargalos do hardware para IA; a SK Hynix está avaliando a possibilidade de que a TSMC fabrique o núcleo dessas memórias em seu nó de 3 nm
As GPUs de última geração para inteligência artificial (IA) que estão sendo projetadas por NVIDIA, AMD e Huawei, entre outras empresas, são um prodígio da tecnologia. No entanto, seu desempenho é profundamente condicionado pelas capacidades dos chips de memória com os quais trabalham. Isso porque as GPUs mais avançadas são tão rápidas que frequentemente precisam esperar até que a memória lhes entregue os dados necessários para continuar realizando cálculos.
Os chips de memória HBM4e (High Bandwidth Memory) buscam acabar de uma vez por todas com esse gargalo no hardware de IA. Os três maiores projetistas desse tipo de circuito integrado (Samsung, SK Hynix e Micron Technology) estão trabalhando em suas soluções HBM4e, sendo que as duas empresas sul-coreanas provavelmente entregarão as primeiras amostras a seus clientes na segunda metade de 2026. A empresa estadunidense Micron chegará um pouco depois: em 2027.
Atualmente, a SK Hynix lidera esse mercado com uma participação próxima de 70%, enquanto os 30% restantes são divididos entre Samsung e Micron Technology. No entanto, o futuro de suas memórias HBM4e não depende apenas dela. Para sustentar sua participação atual, a SK Hynix precisa produzir suas futuras memórias HBM4e em um nó litográfico de ponta e, segundo o DigiTimes Asia, decidiu jogar seguro: está avaliando a possibilidade de que a TSMC fique responsável por fabricar o núcleo dessas memórias em seu nó de 3 nm.