无言以对 发表于 昨天 14:05

Wan2GP V37版 - 低配显卡玩转AI绘画/视频生成 新增Flux 2 Klein图像模型 新增GGUF支持 支持50系显卡 一键整合包下载


Wan2GP 是一个由DeepBeepMeep开发的开源 AI视频生成/绘画 项目,旨在为GPU资源有限的用户提供高质量的 视频/绘画 生成体验。它囊括了多种绘画/视频生成模型,包括阿里的Wan及其衍生模型、腾讯的Hunyuan Video和LTV Video等主流视频生成和Qwen-Image-Edit、Flux、Z-Image等模型,通过简洁易用的网页界面,用户无需深入了解复杂的模型细节,即可轻松生成想要的 绘画/视频内容。

Wan2GP 的问世,让广大低端显卡用户也能玩转高大上的视频生成项目了。就以HunyuanVideo 13B图生视频模型来说,原版需要至少80G显存才能跑得动的模型,现在 Wan2GP 把这个标准降低到10GB,而且生成的视频质量几乎没用任何的损失和降低。但缺点也是有的,生成时间会拉长,同时需要更大的运行内存。
Wan2GP 同时支持各种主流高质量的AI绘画和图像编辑模型,目前支持Flux和Qwen主流图像生成和图像编辑模型,视频生成和图像生成双剑合璧。

今天分享的 Wan2GP V37版,基于官方 1月17日的 V10.41 打包。新增 Flux 2 Klein图像生成/编辑模型;新增更轻的GGUF模型支持;新增模型管理插件等。
因这个版本整体做了大量内部重构,翻译的工作量难度也相应增大,翻译后的版本可能有一些问题, 如有影响使用的问题,请评论区回复,会第一时间修复。

在尽量保证功能完整的情况下,进一步对WebUI做了更多的汉化翻译,目前汉化率97%。新增“多开”功能,支持一次开启多个WebUI。
注. 从V6版开始,提供两种版本,免费版和付费版。区别为:免费版不再提供中文翻译,原汁原味官方原版,不包含模型;付费版为中文翻译版,包含一些常用的模型,后期会逐步加入更多模型,以及一些优化功能加入。


主要更新内容如下:

1月17日更新

环境部分:

优化Wan Pytorch 编译器,恢复稳定的环境 torch到2.7;更新 SageAttention;集成Git环境,无需手动安装Git即可实现插件安装配置

软件部分:

GGUF格式的支持:虽然有些人可能不太喜欢这种格式,但在与图像/视频生成模型结合使用时,使用GGUF并不会带来任何性能提升(矩阵乘法运算仍以16位精度进行);虽然它能节省一些VRAM空间,但图像质量也不如使用int8或fp8格式时好。不过GGUF确实有一个优点:它占用的RAM和硬盘空间更少。现在你们已经可以享受到GGUF格式的支持了!我已为LTX 2版本准备了可以直接使用的Kijai GGUF微调模型;

模型管理插件:使用该插件可以查看每个模型或微调配置所占用的空间,并删除不再需要的模型。不过请注意,避免删除那些被其他模块共享的文件,否则这些文件会再次被下载下来;

LTX 2的双视频/音频控制功能:如果想同时使用视频中的音频数据来驱动视频生成过程,就不再需要先提取音频轨道了;新功能允许你直接利用视频中的视频和音频数据;

LTX 2 – 自定义VAE模型:有些用户询问是否可以使用旧的Distiller VAE模型来替代新版本。为此,你可以基于现有的模型定义创建一个新的微调配置文件,并将其保存在finetunes/文件夹中(具体操作方法请参考文档FINETUNES.md);

Flux 2的Klein 4B/9B模型:这些经过精简处理的模型运行速度至少与Z_Image模型相当,甚至可能更快;而且它们具备“开箱即用”的图像处理功能(无需额外配置即可使用);

Flux 2 Klein 4B 和 9B:试试这些蒸馏模型,速度可达 Z_Image 甚至更快,但不支持原厂图像版功能。




项目特点

低显存要求‌:Wan2GP对显存的需求较低,某些模型甚至仅需6GB 显存即可运行,这使得更多用户能够体验到视频生成的乐趣。 ‌
支持老旧GPU‌:项目不仅支持最新的GPU,还兼容RTX 10XX、20XX等老旧型号,降低了硬件门槛。 ‌
高效快速‌:在最新GPU上,Wan2GP能够非常快速地生成视频,大大缩短了等待时间。 ‌
易用性‌:提供全网页界面,用户无需安装额外软件即可使用,同时集成了模型自动下载、视频生成工具(如遮罩编辑器、提示增强器)、时空生成等功能,简化了操作流程。 ‌
Loras支持‌:允许用户自定义每个模型,以满足个性化需求。 ‌
排队系统‌:用户可以列出想要生成的视频清单,稍后回来查看结果,提高了效率。


应用领域

创意内容制作‌:设计师、动画师等创意工作者可以利用Wan2GP快速生成概念视频、动画短片或广告素材。 ‌
娱乐与社交‌:用户可以在社交媒体上分享通过Wan2GP生成的有趣视频,增加互动性和趣味性。 ‌
教育与培训‌:教师可以制作生动的教学视频,帮助学生更好地理解和掌握知识;企业也可以利用该技术进行产品演示或员工培训。 ‌
影视后期制作‌:影视行业从业者可以利用Wan2GP进行特效制作、场景渲染等工作,提高制作效率和质量。


使用教程:(建议N卡,显存8G起,内存32G起。支持50系显卡,基于CUDA12.8)

使用和之前发布的Wan2.1以及类似的视频生成软件类似,根据需要,点击最上方的模型列表,切换需要使用的模型,会根据切换的模型自动下载,模型较大,耐心等待下载完成。
注. 模型是通用的,更新新版后,只需要将之前旧版的模型目录(目录下的ckpts)移动到新软件目录下即可,无需重复下载

支持文生视频和图生视频。支持低端显卡运行阿里Wan、腾讯HunyuanVideo以及LTV Video等高精度模型。支持多种Lora类型扩展,请根据页面使用说明将lora模型放入对应的目录手动加载。
启动WebUI后,页面有“指南”选项卡,作者很详细的介绍了不同的模型参数和特点及应用领域、Lora模型的加载及使用以及VACE ControlNet的详细使用说明。UI我也做了大部分汉化,方便大家使用。
基于原版使用文档,我做了详细的翻译,建议大家仔细阅读,作为操作参考。

测试了30-50系显卡,均能正常运行。10-20没做测试,可自行测试

Wan2.2 提示词填写技巧,可以参考官方文档:
https://mp.weixin.qq.com/s/ucHuyomTZ6X2q_tL3wHQQg
https://alidocs.dingtalk.com/i/nodes/jb9Y4gmKWrx9eo4dCql9LlbYJGXn6lpz


软件目录结构:

📂 ckpts/
│   ├── 📂 chinese-wav2vec2-base/
│   │      └── pytorch_model.bin
│   ├── 📂 Qwen2.5-VL-7B-Instruct/
│   │      └── Qwen2.5-VL-7B-Instruct_quanto_bf16_int8.safetensors
│   └── 📂 umt5-xxl/
│          └── models_t5_umt5-xxl-enc-quanto_int8.safetensors
📂 models/
│   ├── 📂 qwen/
│   ├── 📂 wan/
│    ...
📂 deepface/
......




下载地址:
迅雷云盘:上传中


夸克网盘:
**** 本内容需购买 ****

百度网盘:
**** 本内容需购买 ****

来日方长 发表于 12 小时前

这个庞然大物,越来越大了
页: [1]
查看完整版本: Wan2GP V37版 - 低配显卡玩转AI绘画/视频生成 新增Flux 2 Klein图像模型 新增GGUF支持 支持50系显卡 一键整合包下载