微软下一代AI芯片推迟至2026年量产
- 2025-07-06 23:10:51
- 927
微软下一代芯片Braga面临设计难题。
近日,有报道称,微软下一代自研Maia人工智能芯片的发布日期已从原定的2025年推迟至2026年。
延迟的主要原因在于下一代芯片Braga面临设计难题。微软在开发过程中需要整合OpenAI的新功能需求,导致芯片模拟运行时出现不稳定问题,进而将量产时间推迟至少六个月。分析师预计,Braga的性能可能不及2024年英伟达发布的Blackwell芯片,影响微软在AI芯片市场的竞争力。
尽管如此,微软已规划后续代号为Braga-R和Xylia的芯片路线图,以巩固其在云AI领域的领导地位。此次推迟提醒业界,自研芯片虽前景广阔但技术门槛高企,微软仍需平衡创新与现实可行性。
微软Maia 100 AI芯片
2023年11月,在Microsoft Ignite大会,微软首次发布了Maia系列的首款产品——Azure Maia 100 AI芯片和Cobalt 100 CPU。这两款芯片专为云基础设施和训练大规模语言模型优化设计,通过微软内部构建的垂直集成方案,显著提升了性能、功耗和成本效率。
作为微软首个定制AI加速器系列的开篇之作,Maia 100以先进规格脱颖而出。该芯片尺寸约为820平方毫米,采用台积电5纳米制程技术,集成1050亿个晶体管,仅比AMD MI300 GPU少约30%,并首次支持8-bit以下的MX数据类型,以加速模型训练和推理过程。此前微软宣称,Maia 100性能直追英伟达H100,同时节省约30%成本,凸显其在减少对外部GPU依赖上的战略价值。
Maia 100芯片采用了台积电的N5工艺和COWOS-S中介层技术,使得集成度大幅提升,同时优化了能耗管理。该芯片集成了大型片上SRAM,并结合四个HBM2E芯片,实现了每秒1.8TB的总带宽和64GB的存储容量,充分满足了AI数据处理的高要求。
在计算性能方面,Maia 100配备了高速张量单元和矢量处理器。高速张量单元支持多种数据类型,包括低精度的MX数据格式,为AI计算提供了强大的动力。矢量处理器则采用定制指令集架构(ISA),支持FP32和BF16等多种数据类型,进一步提升了AI运算的效率。此外,Maia 100还具备高效的Tensor运算能力,确保了复杂AI模型的高效运行。
Maia 100的TDP设计为500W,尽管支持高达700W的功率,但其架构设计紧密围绕现代机器学习需求展开,旨在实现最佳的计算速度、性能和准确性。通过低精度存储数据类型和数据压缩引擎设计,Maia 100减少了大型推理作业对带宽和容量的需求,从而降低了能耗。同时,大型L1和L2暂存器由软件管理,以实现最佳的数据利用率和能效。
值得一提的是Maia 100的硬件和软件架构均是从头开始设计,旨在更高效地运行大规模工作负载。软件开发工具包(SDK)为开发人员提供了一套全面的组件,以便将模型快速部署到Azure OpenAI服务。框架集成方面,Maia 100支持一流的PyTorch后端,同时提供了调试器、分析器、可视化器等开发人员工具,助力模型的调试和性能调整。编译器方面,Maia 100提供了Triton编程模型和Maia API两种选择。
*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。
想要获取半导体产业的前沿洞见、技术速递、趋势解析,关注我们!