同一天,华为、百度传来大消息!

来自: 收藏 邀请

每经编辑|黄胜    

华为技术有限公司30日宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。

根据公告,盘古Pro MoE 72B模型权重、基础推理代码和基于昇腾的超大规模MoE模型推理代码,已正式上线开源平台。盘古7B相关模型权重与推理代码将于近期上线开源平台。

图片来源:每经记者 李星 摄

华为公告称,此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。

另一方面,6月30日,百度也宣布正式开源文心大模型4.5系列模型,涵盖47B、3B激活参数的混合专家(MoE)模型,与0.3B参数的稠密型模型等10款模型,并实现预训练权重和推理代码的完全开源。

目前,文心大模型4.5开源系列可在飞桨星河社区、HuggingFace等平台下载部署使用,同时开源模型API服务也可在百度智能云千帆大模型平台使用。

值得注意的是,在百度、华为之前,阿里早已通过一系列有竞争力的开源大模型、魔搭社区布局AI开源生态,腾讯混元此前也开源了混合推理MoE模型 Hunyuan-A13B以及3D生成模型等。

封面图片来源:图片来源:每经记者 李星 摄


鲜花

握手

雷人

路过

鸡蛋
相关推荐
实时动态
焦点话题
热门排行

在线客服(服务时间 9:00~18:00)

在线QQ客服
公司地址:广州市黄埔区康富路32号101房
客服电话:13326565461
电子邮箱:30376048757@qq.com

Powered by 广州丁冬科技有限公司 © 2025 aiwsw.com Inc.( 粤ICP备2024347580号-3 )