首页 文章推荐 家电百科 实时讯息 常识
您的位置: 首页 > 实时讯息 >

重磅:华为开源盘古7B稠密和72B混合专家模型

0次浏览     发布时间:2025-06-30 12:36:00    

6月30日,华为正式宣布开源盘古70亿参数的稠密模型盘古Pro MoE 720亿参数的混合专家模型基于昇腾的模型推理技术

此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。

1. 盘古Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台。

2. 基于昇腾的超大规模MoE模型推理代码,已正式上线开源平台。

3. 盘古7B相关模型权重与推理代码将于近期上线开源平台。

华为诚邀全球开发者、企业伙伴及研究人员下载使用,反馈使用意见,共同完善。

编辑:晓燕

指导:辛文












图片





图片



相关文章
喜茶正式上线淘宝闪购:全国超4000家门店已全量运营
2025-08-22 11:24:00
鸿蒙不怕远征难
2025-08-17 16:41:00
在“2025年度AI人物”看见中国AI的星辰大海
2025-08-16 18:53:00
违法违规收集使用个人信息!国家计算机病毒应急处理中心通报70款App
2025-08-13 12:43:00
硅谷最贵华人诞生,上交校友庞若鸣薪酬飙破2亿美元,碾压余家辉、库克
2025-07-10 15:36:00