AMD 推出自家首款小语言 AI 模型“Llama-135m ”,主打“推测解码”能力可减少 RAM 占用
2024-09-30 08:02:56人工智能 IT之家 漾仔
AMD 在 Huggingface 平台公布了自家首款“小语言模型”AMD-Llama-135m,该模型具有推测解码功能,拥有 6700 亿个 token,采用 Apache 2.0 开源许可
最新 9 月 29 日消息,AMD 在 Huggingface 平台公布了自家首款“小语言模型”AMD-Llama-135m,该模型具有推测解码功能,拥有 6700 亿个 token,采用 Apache 2.0 开源许可,最新附模型地址如下(点此访问)。
据介绍,这款模型主打“推测解码”能力,其基本原理是使用小型草稿模型生成一组候选 token,然后由更大的目标模型进行验证。这种方法允许每次前向传递生成多个 token,而不会影响性能,从而显著减少 RAM 占用,实现效率提升。
AMD 表示,这款模型在四个 AMD Instinct MI250 节点训练了六天,其“编程专用版本”变体 AMD-Llama-135m-code 则额外耗费了四天时间进行微调。
赞一个! ()
相关文章
- 非 Transformer 架构 AI 模型 Liquid 问世,号称性能“
- 安卓版谷歌 Gemini Live 上线,助力 AI 开启全民语音聊
- OpenAI 发布 Realtime API,助力第三方应用集成其语音合
- PyTorch 架构优化库 torchao 正式发布,可大幅提升 AI
- 微调 GPT-4o AI 模型新维度,OpenAI 开放图片视觉微调功
- 紧跟微软步伐,谷歌开始为 Chromebook 机型添加专用 AI
- OpenAI 联合创始人 Durk Kingma 加盟 Anthropic
- 10 倍速度提升,新版 Dream Machineds 可在 20 秒内极速
- OpenAI 笑傲 AI 江湖:66 亿美元掀起融资狂潮,9 个月估值
- 整合海量公共数据,谷歌开源 AI 统计学专家 DataGemma