Tecnologia

Microsoft lança chip de IA prometendo reduzir custos e acirra disputa com concorrentes

Novo chip de inferência passa a integrar a infraestrutura de nuvem da empresa e será usado em serviços como Microsoft 365 Copilot

Tempo de leitura: 3 minutos


A Microsoft iniciou a implantação do Maia 200, seu novo acelerador de inferência para aplicações de inteligência artificial, em regiões selecionadas de seus data centers nos Estados Unidos. Segundo a empresa, o chip passa a integrar a infraestrutura heterogênea de IA da companhia e foi projetado para reduzir o custo da geração de tokens em modelos avançados.

De acordo com a Microsoft, o Maia 200 será utilizado para suportar múltiplos modelos de IA, incluindo versões recentes dos modelos GPT-5.2, da OpenAI. A empresa afirma que o acelerador foi desenvolvido para oferecer maior desempenho por dólar investido em serviços como o Microsoft Foundry e o Microsoft 365 Copilot.

A implantação inicial ocorre na região “US Central”, em Iowa. A Microsoft informou que a região “US West 3”, próxima a Phoenix, no Arizona, será a próxima a receber o hardware, com outras localidades já previstas no plano de expansão.

Segundo a empresa, o Maia 200 é fabricado no processo de 3 nanômetros da Taiwan Semiconductor Manufacturing Company (TSMC) e conta com núcleos tensores nativos FP8 e FP4. O acelerador também incorpora um sistema de memória com 216 GB de HBM3e, largura de banda de até 7 TB/s e 272 MB de SRAM integrada, além de mecanismos específicos para movimentação de grandes volumes de dados em cargas de inferência.

“A era da IA em grande escala está apenas começando, e a infraestrutura vai definir o que é possível. Nosso programa acelerador de IA Maia foi projetado para ser multigeracional”, afirmou Scott Guthrie, vice-presidente executivo de Nuvem + IA da Microsoft.

“À medida que finalizamos a implantação do Maia 200 em nossa infraestrutura global, já estamos projetando para as futuras gerações e esperamos que cada geração estabeleça continuamente novos padrões para o que é possível e entregue desempenho e eficiência cada vez melhores para as cargas de trabalho de IA mais importantes”, acrescentou.

Scott Guthrie, vice-presidente executivo de Nuvem + IA da Microsoft (foto: reprodução)

A Microsoft afirma que, em testes internos, o Maia 200 apresenta desempenho em FP4 até três vezes superior ao da terceira geração do Amazon Trainium e desempenho FP8 acima da sétima geração do TPU do Google. Ainda segundo a companhia, o novo acelerador oferece cerca de 30% mais desempenho por dólar em comparação com o hardware de inferência mais recente utilizado atualmente em sua infraestrutura.

O chip também será utilizado pela equipe de Superinteligência da Microsoft em tarefas como geração de dados sintéticos e aprendizado por reforço, com o objetivo de aprimorar modelos internos. De acordo com a empresa, o design do Maia 200 permite acelerar processos de geração e filtragem de dados específicos por domínio, que alimentam etapas posteriores de treinamento.

Cada chip do Maia 200 reúne mais de 100 bilhões de transistores e foi projetado para cargas de trabalho de IA em larga escala. A Microsoft afirma que cada unidade entrega mais de 10 petaFLOPS em precisão de 4 bits (FP4) e cerca de 5 petaFLOPS em precisão de 8 bits (FP8), permitindo a execução dos maiores modelos atuais e oferecendo margem para modelos ainda mais robustos no futuro.

Tópicos desta reportagem:


Receba em seu email um resumo semanal e GRATUITO com notícias exclusivas e reportagens sobre o mercado de IA no Brasil e no mundo

Subscription Form (#4)