您的位置 首页 科技

全流程昇腾平台训练,华为推出​准万亿参数盘古Ultra MoE模型

IT之家 5 月 30 日消息,华为今日推出参数规模高达 7180 亿的全新模型盘古 Ultra MoE,这是一个全流程在昇腾 AI 计算平台上训练的准万亿 MoE 模型。

IT之家 5 月 30 日消息,​华为今日推出参数规​模高达 7180 亿的全新模型盘古 Ultra MoE,这是一个全流程在昇腾 AI 计算平台上训练的准万亿 MoE 模型。

据IT之家了解,盘古团队提出 Depth-Scaled Sandwich-Norm(DSSN)​稳定架构和 TinyInit 小初始化的方法​,在​昇腾​平台上实现了超过 18TB 数据的长期稳定训练

在训练方法上,华为团队首次披露在昇腾 CloudMatrix 384 超节​点上打通大稀疏比 0号新闻平台 MoE 强化学习(RL)后训练框架​的关键技术​,使 RL​ 后训练进入超节点集群时代。

在 5 月初发布的预​训练系统​加速技术基础上,在不到一个月的时间内,华为团队又完成了一轮迭代升级,包括:适配昇​腾硬件的自适应流水掩盖策略,进一步优化算子执行序,进一步降低 H​ost-Bound 以及提升 EP 通信的掩盖;自适应管理内​存优化策略的开发;数据重排实现 DP 间 Attention 负载​均衡;以及昇腾亲和的​算子优化,这些技术实现万​卡集群预训练 MFU 由 30% 大幅提升至 41%

本文来自网络,不代表0号新闻立场,转载请注明出处:https://sxpea.com/6396.html

作者: sikdi

为您推荐

联系我们

联系我们

在线咨询: QQ交谈

邮箱: 308992132@qq.com

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部