A Microsoft revelou nesta segunda-feira a segunda geração de seu chip de inteligência artificial juntamente com ferramentas de software para rivalizar com a vantagem competitiva da Nvidia entre desenvolvedores.
O novo chip "Maia 200" entra em operação esta semana em uma central de processamento de dados no estado norte-americano de Iowa e a Microsoft tem planos para um segundo local no Arizona. A primeira versão do chip foi lançada pela Microsoft em 2023.
O Maia 200 surge no momento em que grandes empresas de computação em nuvem, como Microsoft, Google e Amazon Web Services - alguns dos maiores clientes da Nvidia - estão produzindo seus próprios chips.
A Microsoft disse que, juntamente com o novo chip Maia, oferecerá um pacote de ferramentas de software para programá-lo. Isso inclui o Triton, uma ferramenta de software de código aberto que recebeu grandes contribuições do criador do ChatGPT, a OpenAI, que assume as mesmas tarefas do Cuda, o software da Nvidia que muitos analistas de Wall Street dizem ser a maior vantagem competitiva da Nvidia.
Assim como os próximos chips "Vera Rubin", da Nvidia, apresentados no início deste mês, o Maia 200 da Microsoft é fabricado pela Taiwan Semiconductor Manufacturing Co usando a tecnologia de produção de 3 nanômetros e usará processadores de memória de alta largura de banda, embora de uma geração mais antiga e mais lenta do que os próximos chips da Nvidia.
Mas a Microsoft também seguiu a cartilha de alguns dos concorrentes em ascensão da Nvidia ao incluir no chip Maia 200 uma quantidade significativa do que é conhecido como SRAM, um tipo de memória que pode oferecer vantagens de velocidade para chatbots e outros sistemas de IA quando eles recebem solicitações de um grande número de usuários.
A Cerebras Systems, que recentemente fechou um acordo de US$10 bilhões com a OpenAI para fornecer poder de computação, depende muito dessa tecnologia, assim como a Groq, a startup da qual a Nvidia licenciou a tecnologia em um acordo de US$20 bilhões.