刚刚!华为首个开源大模型发布!
- 2025-06-30 10:43:54
刚刚,华为正式宣布开源盘古 70 亿参数的稠密模型、盘古 Pro MoE 720 亿参数的混合专家模型和基于昇腾的模型推理技术。

🤯 盘古 Embedded 7B 模型:
• 参数规模为 70 亿
• 采用双系统框架,具备「快思考」和「慢思考」能力
• 模型具备元认知能力,可根据任务复杂度自动切换推理模式
• 专为在昇腾 NPU 上优化部署,兼顾推理速度与推理深度
• 在 AIME、GPQA 等复杂推理基准测试中,超越 Qwen3-8B、GLM4-9B 等同量级模型
🔋 盘古 Pro MoE 72B 模型:
• 基于分组混合专家(MoGE)架构
• 总参数量 720 亿,激活参数量 160 亿
• 通过专家分组和组内均衡激活,解决专家负载不均,提高部署效率
• 针对昇腾硬件深度优化,推理速度高效(最高单卡 1528 tokens/s)
• 性能优于同规模稠密模型,在多项公开基准测试中处于领先地位
• 支持大规模并行训练,具备高性价比推理方案
截至发稿前,盘古 Pro MoE 72B 模型权重、基础推理代码,已正式上线开源平台。基于昇腾的超大规模 MoE 模型推理代码,已正式上线开源平台。
此外,盘古 7B 相关模型权重与推理代码将于近期上线开源平台。华为官方表示将诚邀全球开发者、企业伙伴及研究人员下载使用,反馈使用意见,共同完善。
附上访问地址:https://gitcode.com/ascend-tribe
声明:本文内容及配图由入驻作者撰写或合作网站授权转载。文章观点仅代表作者本人,不代表科技区角网立场。仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
点击这里
扫码添加微信

- 点赞 0
-
分享
微信扫一扫
-
加入群聊
扫码加入群聊