打造“AI工厂”,摩尔线程为什么强调系统级创新?
7月25日,摩尔线程在世界人工智能大会(WAIC 2025)开幕前夕举行技术分享会。
18小时前
来源:中国电子报、电子信息产业网 姬晓婷  

7月25日,摩尔线程在世界人工智能大会(WAIC 2025)开幕前夕举行技术分享会。会上,摩尔线程创始人兼CEO张建中表示,将以系统级技术创新与工程化能力打造用于生产智能的“AI工厂”。在他看来,“AI工厂”,如同芯片晶圆厂的制程升级,是一个系统性、全方位的变革,需要实现从底层芯片架构创新、到集群整体架构的优化,再到软件算法调优和资源调度系统的全面升级。

AI工厂的生产效率取决于加速计算通用性、单芯片有效算力、单节点效率、集群效率、集群稳定性,这五大元素相互配合,缺一不可。与之相对应,摩尔线程以全功能GPU、MUSA架构、MUSA软件栈、KUAE集群、零中断五大技术,满足AI工厂对生产效率的要求。

张建中在技术分享会上介绍摩尔线程高效AI工厂打造方案

为何要打造“AI工厂”?

全球前沿模型“智力”正迅猛增长。模型产业竞争激烈,迭代速度愈来愈快。全球代表性模型的迭代周期,从5—6个月逐渐缩减到1个月,甚至近期每周都有新的模型智能水平超越行业既有模型。以人类智力水平100分为标准,DeepSeek V3在2024年12月推出时,评分为46分;今年5月推出的DeepSeek R1,智力水平已经能够达到68分。在不到半年的时间内,DeepSeek智能水平提升了50%以上。

这种高频迭代不仅体现在大型语言模型(LLM)上,还同步扩展至多模态模型、语音模型、世界模型等前沿模型领域。这些模型在性能、效率和应用场景上实现的指数级突破,不仅推动了AI从专用领域向通用智能的跨越,其快速迭代的特性更对新一代高性能人工智能计算基础设施提出了迫切需求。

而训练具有高智能水平的模型,首先要算力足够高、效率足够高,才可以成为有效的算力。

张建中在主题演讲中表示,为应对生成式AI爆发式增长下的大模型训练效率瓶颈,摩尔线程旨在通过系统级创新,将全功能GPU加速平台的强大潜能,转化为工程级的训练效率与可靠性,为AGI时代打造生产先进模型的“超级工厂”。

相较于海外行业头部企业代表,我国万卡以上算力集群搭建仍处于追赶状态。对于我国AI算力行业而言,部署规模更大、高效高可靠的大规模算力集群,仍是赢得国际竞争的重要技术路线。

何以提升单芯片有效算力?

算力芯片是AI工厂的技术基座。如果算力芯片不够通用、性能不够强,效率不够高,AI工厂的地基就不够牢。芯片运算效率高低取决于芯片架构、驱动性能、算子优化程度等多维因素。

在实际应用中,芯片算力很少能够达到理论峰值算力,实际运行算力与产品设计理论算力之间存在差值。而好的芯片架构,应该像一个优秀的管理者一样,通过调度使所有的资源“忙”起来。

记者注意到,摩尔线程正在以多种方式提升芯片实际应用算力。

摩尔线程在WAIC 2025展示全功能GPU在不同场景中的应用实例

MUSA(Meta-computing Unified System Architecture,即元计算统一架构)是摩尔线程自研架构,其核心理念是——要做多引擎可配置的统一系统架构。

首先是多引擎,体现在单颗GPU芯片上同时支持AI计算、图形渲染、物理仿真和科学计算、超高清编解码技术,目前国内只有以摩尔线程为代表的少数GPU厂商具备全功能能力。

其次,该架构采用统一的MUSA编程接口,提供统一的API。这样一来,开发者采用一套编程指令集就能驱动在MUSA架构之下的多种算力引擎。

为了更好地调动存算资源,摩尔线程自主研发的加速引擎——张量计算引擎(TCE)和张量访存引擎(TME)。前者将大大小小各种不同的复杂结构高效组合起来,同时具备高精度累加器,能够降低小数累入损失。后者用以充分发挥存储的效率,支持Img2Col、矩阵转置,能够加速前、后处理。

即便是国际GPU头部企业,也仍然存在通信任务占用计算资源的问题。而将原本可用于计算的处理器用于通信,会损失运算效率。为解决这一问题,摩尔线程开发了ACE(异步通信引擎),能够实现异步DMA搬移,同时不占用计算核的资源和访存带宽,减少了15%的计算资源损耗;内嵌同步机制,能够提高跨引擎协同性能;采用多种访存地址计算模式,提高搬移效率。

不仅如此,在计算层面,摩尔线程的AI加速系统全面支持INT8/FP8/FP16/BF16/TF32等多种混合精度计算。作为国内首批实现FP8算力量产的GPU厂商,其FP8技术通过快速格式转换、动态范围智能适配和高精度累加器等创新设计,在保证计算精度的同时,将Transformer计算性能提升约30%。

何以实现高效节点、集群算力?

软件生态被视为芯片企业的“护城河”。摩尔线程着力建设的MUSA软件栈正成为其全功能GPU性能发挥的有力支撑。

基于推理场景对Kernel延时敏感的现状,MUSA的驱动和运行时库,能够帮助用户实现Kernel launch开销缩减:通过软硬协同,核函数启动延迟降低至业界平均水平的50%;近千次的计算和通信任务下发开销,由近千次优化为单次,GPU等待时间大大缩减;借助引擎间依赖解析技术,任务流之间的依赖解析延时可大幅降低至1.5μs,优于业界头部算力卡。

MUSA算子库提升了芯片计算效率

算子库的效率直接关乎分布式集群的训练效率。

当前,MUSA能够提供三大算子库:极致性能muDNN、易用的MUTLASS、MUSA AI Tensor Engine开源推理算子库。

其中,muDNN是一款极致性能的开箱即用标准算子库,完整覆盖常见的前向和反向算子。能够支持完整的XMMA,支持Tensor Core全精度及所有量化模式,以及常用的神经网络算子操作。当前,业内算子矩阵乘法的效率大部分可以做到90%以上,摩尔线程muDNN矩阵乘法算子效率可达到98%。国际一流厂商Flash Attention算子效率约为75%,而muDNN的Flash Attention能够达到95%。

MUTLASS高性能的线性代数模板库,可极大降低在MUSA环境中自定义算子的开发工作量,相当于提供了一个可供二次开发的模板。当前MUTLASS已在Github上开源,支持平湖架构所有特性,同时提供高性能矩阵乘法、卷积算子实现,在Kernel中调用模板库就可以进行二次开发。

此外,摩尔线程即将发布的面向大语言模型的开源推理算子库MUSA AI Tensor Engine,能够帮助开发者快速搭建自定义推理引擎。该算子库提供用户友好的Python API,进一步降低开发者使用门槛,只要会Python就可以调用。

大模型训练动辄需要调动几千张甚至几万张算力卡资源。要实现模型的高效训练,不仅单卡性能要高,还需要有强大的集群管理和调度能力。

摩尔线程在WAIC 2025现场展示KUAE夸娥智算集群

摩尔线程自研的夸娥(KUAE)计算集群,集成了计算集群、软件平台、管理系统、优化系统以及维护和服务等一系列流程。整合数据、模型、张量、流水线和专家并行技术,全面支持Transformer等主流架构;支持端到端的模型训练,能够实现对混合专家模型、自动驾驶模型、视频生成模型、具身智能模型等多种类模型的全面支持。

在构建高效集群的基础上,稳定可靠的运行环境是“AI工厂”持续产出的保障。在万卡级AI集群中,硬件故障导致的训练中断会严重浪费算力,甚至会导致训练团队几个月的努力付诸东流。

为此,摩尔线程推出零中断容错技术,故障发生时仅隔离受影响节点组,其余节点继续训练,备机无缝接入,全程无中断。这一方案使KUAE集群有效训练时间占比超99%,大幅降低恢复开销。同时,KUAE集群通过多维度训练洞察体系实现动态监测与智能诊断,将异常处理效率提升50%;结合集群巡检与起飞检查,训练成功率提高10%,为大规模AI训练提供稳定了保障。

最新文章
关于我们

微信扫一扫,加关注

商务合作
  • QQ:61149512