0731-88575016

首页 > 产品中心 > 扫码模块>>>竞技宝官网app
详细内容

竞技宝官网app·元象首个MoE大模型开源:42B激活参数效果堪比1

发布时间:2024-04-13 04:29:12 来源:竞技宝app下载官网 作者:竞技宝官网地址

  1. 极致压缩:用相同语料训练2.7万亿token,元象 MoE 实际 激活参数量4.2B,

  2. 超凡性能:在多个权威评测中,元象 MoE效果大幅超越新晋业界顶流谷歌Gemma-7B和Mistral-7B、Meta开源标杆Llama2-13B等多个模型、并接近超大模型Llama1-65B。

  MoE模型采用 的稀疏激活(SparselyActivated)技术,正逐渐成为大模型研究领域最前沿。该技术打破了传统规模理论(ScalingLaw)的局限,在扩大模型规模的同时,可以不显著增加训练和推理的计算成本,并保持模型性能最大化。但由于技术较新,在国内开源和学术研究领域尚未普及。

  元象持续打造国内开源标杆,在 国内最早开源最大参数65B、 全球最早开源最长上下文256K、并在 SuperCLUE测评全国领跑 。此次推出MoE模型, 填补 国产开源空白,更将其 推向了国际领先水平。

  商业应用上,元象大模型是 广东最早获得国家备案的两大模型之一 ,可向全社会提供服务。元象大模型去年起已和多个腾讯产品,包括 QQ音乐 、虎牙直播、全民K歌、腾讯云等,进行深度合作与应用探索,为文化、娱乐、旅游、金融领域打造创新领先的用户体验。

  MoE是目前业界最前沿的模型框架,由于技术较新,国内开源模型或学术研究尚未普及。元象自主研发了MoE的高效训练和推理框架,并在三个方向创新:

  性能上,针对MoE架构中独特专家路由和权重计算逻辑,研发一套高效融合算子,显著提升了计算效率;针对MoE模型高显存使用和大通信量挑战,设计出计算、通信和显存卸载的重叠操作,有效提高整体处理吞吐量。

  架构上,与传统MoE(如Mixtral 8x7B)将每个专家大小等同于标准FFN不同,元象采用更细粒度的专家设计,每个专家大小仅为标准FFN的四分之一,提高了模型灵活性与性能;还将专家分为共享专家(SharedExpert)和非共享专家(Non-sharedExpert)两类。共享专家在计算过程中始终保持激活状态,而非共享专家则根据需要选择性激活。这种设计有利于将通用知识压缩至共享专家参数中,减少非共享专家参数间的知识冗余。

  训练上,受SwitchTransformers、ST-MoE和DeepSeekMoE等启发,元象引入负载均衡损失项,更好均衡专家间的负载;采用路由器z-loss项,确保训练高效和稳定。

  架构选择则经过一系列对比实验得出(下图),在 实验3与实验2中,总参数量和激活参数量相同,但前者的细粒度专家设计带来了更高的性能表现。实验4在此基础上,进一步划分共享和非共享两类专家,使得效果显著提升。实验5探索了专家大小等于标准FFN时,引入共享专家的做法,效果不甚理想。

  综合试验结果(下图),元象最终采用实验4对应的架构设置。展望未来,新近开源的GoogleGemma与X(前Twitter)Grok等项目采用了比标准FFN更大的设定,元象也将在后续继续深入探索相关方向探索研,保持技术引领性。


竞技宝官网app
电话:13973131243
邮箱:dingdangang@douyin.com
地址:竞技宝官网app
扫一扫浏览手机站