Microsoft apresenta Maia 200 e intensifica competição na infraestrutura de IA

Microsoft apresenta Maia 200, seu novo acelerador de inteligência artificial para atender demandas de modelos mais complexos.

2 min de leitura
Maia 200 da Microsoft. Foto: Divulgação

Maia 200 da Microsoft. Foto: Divulgação

Microsoft Lança Maia 200, Acelerador de IA de Próxima Geração

A Microsoft apresentou o Maia 200, um novo acelerador de inteligência artificial (IA) projetado para atender às crescentes demandas da IA de raciocínio. Este lançamento visa oferecer modelos mais robustos e contextuais, com foco na redução de custos durante a fase de inferência.

Além de um avanço técnico, a introdução do Maia 200 indica uma mudança significativa na competição entre grandes provedores de infraestrutura. A infraestrutura agora é vista como um elemento crucial para obter vantagem competitiva, não apenas como uma base operacional.

O Maia 200 foi desenvolvido para cargas de trabalho de inferência em larga escala, oferecendo mais de 10 petaFLOPS em precisão FP4 e cerca de 5 petaFLOPS em FP8. De acordo com a Microsoft, um único node pode executar os maiores modelos atuais, com potencial para suportar arquiteturas ainda mais complexas no futuro.

A empresa destaca que o desempenho em FP4 é três vezes superior ao do Amazon Trainium de terceira geração, enquanto o desempenho em FP8 supera o TPU de sétima geração do Google, evidenciando o reposicionamento da Microsoft no mercado de silício para IA.

Melhoria de Desempenho e Custos

O Maia 200 proporciona uma melhoria de 30% em performance por dólar em comparação aos sistemas atuais da Microsoft, um aspecto crucial em um momento em que os custos de inferência estão se tornando mais significativos do que os de treinamento na totalidade da IA.

Atualmente, o chip está em produção na região Central dos Estados Unidos e já suporta workloads estratégicos, incluindo novos modelos da equipe de Microsoft Superintelligence e serviços de larga escala como o Microsoft Copilot.

Esse uso interno imediato é um diferencial importante, permitindo à Microsoft co-desenvolver silício, modelos e aplicações, ajustando cada camada do sistema com base em dados reais, algo que é desafiador para concorrentes que dependem de chips de terceiros.

Estratégia de Infraestrutura na IA

O lançamento do Maia 200 reforça a ideia de que a próxima fase da IA será definida mais pela arquitetura que a suporta do que pelos modelos em si. Fatores como eficiência energética, previsibilidade de custos, latência e capacidade de escalar inferência com controle se tornam tão importantes quanto a qualidade do modelo.

Nesse cenário, o Maia 200 integra uma estratégia multigeracional de silício próprio da Microsoft, que visa reduzir dependências, otimizar custos e aumentar a autonomia em um mercado que enfrenta desafios relacionados a fornecimento, consumo energético e concentração tecnológica.

Mais do que competir em números com Nvidia, Amazon ou Google, a Microsoft demonstra que sua estratégia se concentra na integração entre infraestrutura, software e aplicações, criando um ecossistema onde a IA não apenas é treinada na nuvem, mas também nasce, opera e escala de forma orquestrada.

Fonte por: It Forum

Sair da versão mobile