腾讯推出 Hunyuan-Large 大模型:389B 总参数,业界已开源基于 Transformer 的最大 MoE 模型
最新 11 月 5 日消息,腾讯今日宣布推出 Hunyuan-Large 大模型,官方表示这是目前业界已经开源的基于 Transformer 的最大 MoE 模型,拥有 3890 亿总参数(389B)和 520 亿激活参数(52B)。
腾讯今日在 Hugging Face 开源了 Hunyuan-A52B-Pretrain 、 Hunyuan-A52B-Instruct 和 Hunyuan-A52B-Instruct-FP8。并发布了技术报告和训练推理操作手册,详细介绍了模型能力和训练与推理的操作。
其中模型技术优势如下:
高质量合成数据:通过合成数据增强训练,Hunyuan-Large 能够学习到更丰富的表示,处理长上下文输入,并更好地泛化到未见数据
KV 缓存压缩:采用分组查询注意力(GQA)和跨层注意力(CLA)策略,显著减少了 KV 缓存的内存占用和计算开销,提高了推理吞吐
专家特定学习率缩放:为不同专家设置不同的学习率,确保每个子模型都能有效地从数据中学习,并为整体性能做出贡献
长上下文处理能力:预训练模型支持高达 256K 的文本序列,Instruct 模型支持 128K 的文本序列,显著提升了长上下文任务的处理能力
广泛的基准测试:在多种语言和任务上进行广泛实验,验证了 Hunyuan-Large 的实际应用效果和安全性
最新附相关链接如下:
论文:https://arxiv.org/pdf/2411.02265
Github:https://github.com/Tencent/Tencent-Hunyuan-Large
Huggingface:https://huggingface.co/tencent/Tencent-Hunyuan-Large
腾讯云:https://cloud.tencent.com/product/hunyuan
相关文章
- 小鹏鹏行前高管创业入局 AI 陪伴机器人,完成千万元级天
- 因发现稀有蜜蜂,扎克伯格拟建的核电 AI 数据中心计划受
- 昆仑万维发布天工 AI 高级搜索功能,升级分析推理、金融
- 英伟达团队机器训练新方法:仅 5 次演示让机器生成 1000
- GPT-4o mini 的 6.7/8.3 倍,Claude 3.5 Haiku AI 模型
- 腾讯推出 Hunyuan-Large 大模型:389B 总参数,业界已开源
- 极智嘉发布全球首款搭载英特尔视觉导航模块的纯视觉机
- AI 赋能好莱坞:《此心安处》通过实时 AI 换脸技术让演
- OpenAI CEO 阿尔特曼预测 AGI 可在 5 年内实现,但短期
- 优必选发布全栈式无人物流解决方案:人形机器人与无人车