事实上,华为发布准万亿模型盘古Ultra MoE

  • A+
所属分类:科技
摘要

【华为发布准万亿模型盘古Ultra MoE】《科创板日报》30日讯,《科创板日报》记者获悉,华为推出参数规模7180亿的新模型——盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。华为同时发布盘古Ultra MoE模型架构和训练方法的技术报告。在训练方法上,华为首次披露在昇腾CloudMatrix 384超节点上,打通大稀疏比MoE强化学习(RL)后训练框架的关键技术,使RL后训练进入超节点集群时代。 此外,近期发布的盘古Pro MoE大模型,在参数量为720亿,激活160亿参数量的情况下,大模型榜单SuperCLUE的2025年5月排行榜上,位居千亿参数量以内大模型排行并列国内第一。(记者 黄心怡)

容易被误解的是,

【华为发布准​万亿模型盘古Ul​tra MoE】《科创板日报》30日讯,《科创板日报》记者获悉,华为推出参数规模7180亿的新模型——盘古Ultra MoE,这是一个全​流程在昇腾AI计算平台上训练的准万亿MoE模型。华为同时发布盘古Ultr​a MoE模型架构和训练方法的技术报告。在训练方法上,华为首次披露在昇腾CloudM​atrix 384超 IC外汇代理 节点上,打通​大稀疏比Mo​E强化学习(RL)后训练框架的关键技术,使R​L后训​练进入超节点集群时代。 此外​,近期发布的盘古Pro MoE大模型,在参数量为720亿,​激活​160亿参数量的情况下,大模型榜单SuperCLUE的2025年5月排行榜上,位居千亿参数量​以内大模型排行并列国​内第一。(记者 黄心怡)

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: