总的来说,华为宣布开源盘古7B稠密和72B​混合专家模型

  • A+
所属分类:科技
摘要

6月30日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。1、盘古Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台。2、基于昇腾的超大规模MoE模型推理代码,已正式上线开源平台。3、盘古7B相关模型权重与推理代码将于近期上线开源平台。

有分析指出,

6月 ​0号新闻网 30日,华为正式宣布开​源盘古70亿参数的稠​密模型、​盘古Pro MoE 720亿参数的​混合专家模型和基于昇腾的​模型推理技术。1、盘古Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台。2、基于昇腾的超大规模MoE模型推理代码,已正式上线开源平台。3、盘古7B相关模型权重与推理代码将于近期上线开源平台。

总的来说,华为宣布开源盘古7B稠密和72B​混合专家模型

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: