A Microsoft lançou oficialmente o Maia 200, seu mais recente acelerador de inteligência artificial, projetado para revolucionar a inferência de modelos de IA em larga escala. Com um poder computacional impressionante de mais de 10 petaFLOPS (PFLOPS), o Maia 200 promete superar concorrentes diretos, como Google e Amazon, estabelecendo um novo padrão na indústria.
O que torna o Maia 200 tão poderoso?
Os chamados “chips de IA” são processadores otimizados para executar modelos de inteligência artificial com maior eficiência. Eles se destacam em operações matemáticas complexas, essenciais para ferramentas de IA. Entre as fases críticas, está a inferência, momento em que um modelo já treinado, como o GPT-5.2 ou Gemini 3 Pro, aplica seu conhecimento para gerar respostas ou auxiliar em tarefas específicas.
Empresas como Microsoft, Google e Amazon processam bilhões de requisições diárias. Portanto, a eficiência energética é crucial. O Maia 200 reduz significativamente o consumo de energia, permitindo serviços em larga escala com custos operacionais mais baixos.
O chip utiliza núcleos tensores especializados em cálculos de baixa precisão. Segundo a Microsoft, ele entrega mais de 10 PFLOPS em precisão de 4 bits (FP4) e cerca de 5 PFLOPS em 8 bits (FP8). Para contextualizar, um petaFLOPS equivale a um quatrilhão de operações matemáticas por segundo. Assim, o Maia 200 realiza 10 quatrilhões de cálculos a cada segundo em FP4.
Scott Gunthrie, vice-presidente executivo de Cloud e IA da Microsoft, afirmou: “Um único nó Maia 200 executa os maiores modelos atuais sem esforço, com margem para modelos ainda maiores no futuro”.
Comparativo com concorrentes
Em comparação direta, o Maia 200 supera o AWS Trainium 3 da Amazon em quase quatro vezes no desempenho FP4. Além disso, sua performance FP8 é superior ao TPU de sétima geração do Google. Esses números destacam a vantagem competitiva da Microsoft no mercado de chips de IA.
Tecnologia avançada de 3 nanômetros
O Maia 200 é fabricado pela TSMC em um processo de 3 nanômetros, contendo mais de 100 bilhões de transistores. Seu sistema de memória foi redesenhado para minimizar gargalos, mantendo dados próximos aos processadores. Com 216 GB de HBM3e operando a 7 TB/s e 272 MB de SRAM integrada, o chip oferece uma arquitetura de rede robusta.
Além disso, a Microsoft adotou uma abordagem de dois níveis baseada no protocolo Ethernet padrão. Cada acelerador fornece 1,4 TB/s de largura de banda através de 28 conexões de 400 GbE, permitindo operações coletivas em clusters de até 6.144 aceleradores. Esses recursos resultam em um processamento mais rápido de modelos de linguagem, gerando respostas em segundos.
Implementação no Azure
Os primeiros sistemas Maia 200 já estão operacionais na região Central dos Estados Unidos do Azure. A Microsoft planeja expandir sua disponibilidade para outras regiões em breve. Atualmente, o chip é utilizado pela equipe Microsoft Superintelligence para geração de dados sintéticos e aprendizado por reforço.
O executivo da Microsoft destacou: “O Maia 200 faz parte de nossa infraestrutura heterogênea de IA e atenderá a vários modelos, incluindo o GPT-5.2 da OpenAI, oferecendo uma vantagem de desempenho por dólar investido”.
A empresa também lançou uma prévia do Maia SDK, permitindo que desenvolvedores e acadêmicos otimizem modelos para a nova arquitetura.
Conclusão
O Maia 200 representa um marco na evolução dos chips de IA. Com sua capacidade computacional superior e eficiência energética, ele posiciona a Microsoft à frente de concorrentes como Google e Amazon. À medida que a demanda por IA cresce, soluções como o Maia 200 serão essenciais para impulsionar inovações e reduzir custos operacionais.
