华为宣布开源盘古7B稠密和72B混合专家模型

钛媒体App 6月30日消息,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。1、盘古Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台。2、基于昇腾的超大规模MoE模型推理代码,已正式上线开源平台。3、盘古7B相关模型权重与推理代码将于近期上线开源平台。(广角观察)

本文内容仅供参考,不构成投资建议,请谨慎对待。

评论
0 / 300

根据《网络安全法》实名制要求,请绑定手机号后发表评论

登录后输入评论内容

2025 T-EDGE详情右侧

投资日历
更多