图森未来发布图生视频开源大模型“Ruyi”:RTX 4090 就能运行,可生成 5 秒内容
最新 12 月 17 日消息,图森未来今日发布“Ruyi”图生视频大模型,并将 Ruyi-Mini-7B 版本开源,用户可以从 huggingface 上下载使用。
据介绍,Ruyi 是一个基于 DiT 架构的图生视频模型,它由两部分构成:
一个 Casual VAE 模块负责视频数据的压缩和解压
一个 Diffusion Transformer 负责压缩后的视频生成
模型的总参数量约为 7.1B,使用了约 200M 个视频片段进行训练。“Ruyi”专为在消费级显卡(例如 RTX 4090)上运行而设计,并提供部署说明和 ComfyUI 工作流,以便用户能够快速上手。
多分辨率、多时长生成:Ruyi 支持最小 384*384,最大 1024*1024 分辨率,任意长宽比,最长 120 帧 / 5 秒的视频生成。
首帧、首尾帧控制生成:Ruyi 可以支持最多 5 个起始帧、最多 5 个结束帧基础上的视频生成,通过循环叠加可以生成任意长度的视频。
运动幅度控制:Ruyi 提供了 4 档运动幅度控制,方便用户对整体画面的变化程度进行控制。
镜头控制:Ruyi 提供了上、下、左、右、静止共 5 种镜头控制。
Ruyi 是图森未来正式发布的第一款“图生视频”模型。Ruyi 目前仍然存在手部畸形、多人时面部细节崩坏、不可控转场等问题,图森未来称正在改进这些缺点,在日后的更新中对它们进行修复。
图森未来表示,公司致力于利用大模型降低动漫和游戏内容的开发周期和开发成本。本次发布的 Ruyi 大模型,已经可以实现输入关键帧后,生成之后 5 秒的内容,或输入两个关键帧,由模型生成中间的过渡内容,降低开发周期。在下一次的发布中,图森未来将同时发布两个版本,为不同需求的创作者提供更加灵活的选择。
最新附 Ruyi-Mini-7B 开源链接如下:
https://huggingface.co/IamCreateAI/Ruyi-Mini-7B
相关文章
- 2024 胡润中国人工智能企业 50 强公布:寒武纪 2380 亿
- 阿里通义万相 2.1 模型宣布升级:首次实现中文文字视频
- 开源媒体播放器 VLC 下载破 60 亿次,预览本地 AI 字幕
- 英伟达迷你超算遭友商嘲讽:宣传 FP4 算力,实际“不如买
- 银河通用发布全球首个端到端具身抓取基础大模型 Grasp
- 雷蛇推出“AI 游戏伴侣”Project AVA:支持实时指导 +
- 京东方 CES 2025 发布行业首款 65 英寸 4K 超高清“AI
- 微软开源 140 亿参数小语言 AI 模型 Phi-4,性能比肩 GP
- 微软承认必应 AI 图像生成器 PR16“开倒车”,现回滚至
- 西藏地震期间“小孩被埋”等 AI 图大量传播,严重可追责