DeepBeepMeep 团队最近在 GitHub 上推出了一款名为 Wan2.1GP 的视频生成模型,专为低端 GPU 用户设计。这款模型基于阿里巴巴的 Wan2.1 技术,旨在帮助那些没有高性能 GPU 的用户也能轻松制作视频。Wan2.1GP 的发布代表了视频生成技术的一个重大突破,特别是在开源领域。
Wan2.1GP 模型以其卓越的性能和广泛的适用性而著称。它在多个基准测试中超越了现有的开源模型和一些商业解决方案,显示出其强大的竞争力。此外,该模型的显存需求仅为8.19GB,这意味着几乎所有消费级 GPU 都能够运行它。使用 RTX4090 显卡,用户可以在大约4分钟内生成一段5秒长的480P 视频,其性能可与一些封闭源模型相媲美。 Wan2.1GP 支持多种任务,包括文本到视频、图像到视频和视频编辑等,并且是首个能够同时生成中英文文本的视频模型。这一特性为用户提供了更多的应用可能性。该模型还配备了高效的视频变分自编码器(VAE),能够处理任何长度的1080P 视频,同时保留时间信息,为视频和图像生成提供了坚实的基础。 为了提升用户体验,Wan2.1GP 进行了多项优化,包括降低内存和显存需求,支持多种配置以适应不同性能的设备。用户可以通过简化的安装流程快速开始使用这一工具。随着版本的不断更新,Wan2.1GP 也逐渐增加了更多实用功能,如 Tea Cache 支持、Gradio 界面改进等,进一步提高了生成速度和使用便利性。 项目详情:https://github.com/deepbeepmeep/Wan2GP > 关键点: > > 👍 SOTA 性能:Wan2.1GP 在多个基准测试中表现出色,超过了现有的开源和商业解决方案。 > > 🖥️ 兼容性强:仅需8.19GB 显存,支持几乎所有消费级 GPU,适合低端用户。 > > 📜 多任务支持:支持多种生成任务,并具备中英文文本生成能力。 |