
MAGI-1 是 Sand AI开源的全球首个自回归视频生成大模型,采用自回归架构,通过逐块预测视频序列生成流畅自然的视频,支持无限扩展和一镜到底的长视频生成。模型原生分辨率可达 1440x2568,生成的视频动作流畅且细节逼真,具备可控生成能力,可通过分块提示实现平滑场景转换和细粒度控制。
MAGI-1功能
- 高效视频生成:MAGI-1能在短时间内生成高质量视频片段,例如生成5秒视频仅需3秒,生成1分钟视频可在1分钟内完成。通过分块生成(每块 24 帧)的方式,逐块去噪并并行处理,大幅提升生成效率。
- 高保真输出:生成的视频具有高分辨率(原生 1440x2568),动作流畅且细节逼真,适合多种高质量视频创作需求。
- 无限扩展与时间轴控制:支持无限长度扩展,可无缝续写生成连续长视频场景,具备秒级时间轴控制能力,用户可以通过逐块提示实现精细化的场景转换和编辑。
- 可控生成:通过分块提示,MAGI-1支持平滑的场景过渡、长视距合成和细粒度的文本驱动控制,能根据文本指令生成符合用户需求的视频内容。
- 物理行为预测:在物理行为预测方面表现出色,能生成符合物理规律的动作和场景,适合复杂动态场景的生成。
- 实时部署与灵活推理:支持实时流式视频生成,同时适配多种硬件配置,包括单张 RTX4090 GPU 的部署,降低了使用门槛。
Github仓库:https://github.com/SandAI-org/MAGI-1
声明:本站原创文章文字版权归本站所有,转载务必注明作者和出处;本站转载文章仅仅代表原作者观点,不代表本站立场,图文版权归原作者所有。如有侵权,请联系我们删除。