元象发布中国最大 MoE 开源大模型:总参数 255B,激活参数 36B
2024-09-14 07:39:30人工智能 IT之家 沛霖(实习)
该模型总参数 255B,激活参数 36B,效果能“大致达到”超过 100B 大模型的“跨级”性能跃升,同时训练时间减少 30%,推理性能提升 100%,使每 token 成本大幅下降。
最新 9 月 13 日消息,元象 XVERSE 发布中国最大 MoE 开源模型 XVERSE-MoE-A36B。
该模型总参数 255B,激活参数 36B,官方号称效果能“大致达到”超过 100B 大模型的“跨级”性能跃升,同时训练时间减少 30%,推理性能提升 100%,使每 token 成本大幅下降。
MoE(Mixture of Experts)混合专家模型架构,将多个细分领域的专家模型组合成一个超级模型,在扩大模型规模的同时,保持模型性能最大化,甚至还能降低训练和推理的计算成本。谷歌 Gemini-1.5、OpenAI 的 GPT-4 、马斯克旗下 xAI 公司的 Grok 等大模型都使用了 MoE。
在多个评测中,元象 MoE 超过多个同类模型,包括国内千亿 MoE 模型 Skywork-MoE、传统 MoE 霸主 Mixtral-8x22B 以及 3140 亿参数的 MoE 开源模型 Grok-1-A86B 等。
最新附相关链接:
Hugging Face:https://huggingface.co/xverse/XVERSE-MoE-A36B
魔搭:https://modelscope.cn/models/xverse/XVERSE-MoE-A36B
Github:https://github.com/xverse-ai/XVERSE-MoE-A36B
赞一个! ()
相关文章
- 麻省理工研究:生成式 AI 未能对世界形成连贯的理解
- AI 影响建筑业:美国私人数据中心建设开支激增至近 300
- 人形机器人变身“大厨”煎牛排,OpenAI 押注的 1X 公司
- 谷歌将为苹果 iPhone 推出独立的 Gemini App,支持 AI
- 月之暗面创始人被前公司投资人提起仲裁,受理律师回应将
- AI 初创公司推出 Nous Chat 聊天机器人,底层基于 Meta
- 解散近 50 年后,披头士乐队借 AI 修复歌曲《Now and Th
- 消息称 OpenAI 新 AI 模型进步放缓,公司探索新策略应对
- 社交平台 X 正测试向用户免费开放 AI 聊天机器人 Grok
- 研究揭示 AI 对话方面的缺陷:不知道何时该插话