Wan2GP V36版 - 低配显卡玩转AI绘画/视频生成 新增LTX 2音画同步视频模型 支持50系显卡 一键整合包下载
Wan2GP 是一个由DeepBeepMeep开发的开源 AI视频生成/绘画 项目,旨在为GPU资源有限的用户提供高质量的 视频/绘画 生成体验。它囊括了多种绘画/视频生成模型,包括阿里的Wan及其衍生模型、腾讯的Hunyuan Video和LTV Video等主流视频生成和Qwen-Image-Edit、Flux、Z-Image等模型,通过简洁易用的网页界面,用户无需深入了解复杂的模型细节,即可轻松生成想要的 绘画/视频内容。
Wan2GP 的问世,让广大低端显卡用户也能玩转高大上的视频生成项目了。就以HunyuanVideo 13B图生视频模型来说,原版需要至少80G显存才能跑得动的模型,现在 Wan2GP 把这个标准降低到10GB,而且生成的视频质量几乎没用任何的损失和降低。但缺点也是有的,生成时间会拉长,同时需要更大的运行内存。
Wan2GP 同时支持各种主流高质量的AI绘画和图像编辑模型,目前支持Flux和Qwen主流图像生成和图像编辑模型,视频生成和图像生成双剑合璧。
今天分享的 Wan2GP V36版,基于官方 1月7日的 V10.10 打包。新增 LTX 2音画同步视频模型,支持生成有声视频;新增 Z Image Twin Folder Turbo模型,更快的Z-Image-Turbo绘画模型,最快只需1步即可快速生成;优化 Pytorch 编译器等。
因这个版本整体做了大量内部重构,翻译的工作量难度也相应增大,翻译后的版本可能有一些问题, 如有影响使用的问题,请评论区回复,会第一时间修复。
在尽量保证功能完整的情况下,进一步对WebUI做了更多的汉化翻译,目前汉化率97%。新增“多开”功能,支持一次开启多个WebUI。
注. 从V6版开始,提供两种版本,免费版和付费版。区别为:免费版不再提供中文翻译,原汁原味官方原版,不包含模型;付费版为中文翻译版,包含一些常用的模型,后期会逐步加入更多模型,以及一些优化功能加入。
主要更新内容如下:
1月7日更新
环境部分:
优化Wan Pytorch 编译器,恢复稳定的环境 torch到2.7;更新 SageAttention;集成Git环境,无需手动安装Git即可实现插件安装配置
软件部分:
LTX 2:期待已久的Ovi Challenger终于问世了。LTX 2 能够生成视频及音频伴奏。与以往版本一样,这个WanGP版本对显存的要求较低,最低只需10GB的显存就能运行;如果你的显存容量达到24GB以上,使用简化后的模型,只需2分钟就能在单个窗口中生成时长为20秒、分辨率为720p的视频文件。WanGP LTX 2版本从一开始就支持设置开始/结束关键帧、使用滑动窗口技术进行视频生成,同时还提供了预览功能。LTX 2的简化版本能够显著提升视频生成速度;
Z Image双文件夹加速模式:这种版本使Z Image的生成速度更快了,因为只需进行1步操作就能生成图像(建议进行3步操作);
Qwen LanPaint:这款绘画工具具有极高的精确度,能够使被修复的区域与图像的其余部分更加自然地融合在一起。不过需要注意的是,由于它需要“搜索”最佳替代方案,因此运行速度会慢上5倍左右;
优化后的PyTorch编译器:耐心才是成功的关键。终于,我成功修复了Wan模型与PyTorch编译器之间的兼容性问题。现在这个编译器在各种情况下都能正常使用,而且运行速度也快了很多;
LongCat视频功能:这是一个实验性功能,其中包含了LongCat Avatar这种可以说话的头部模型。不过目前来说,这个功能主要适用于模型收集者,因为它的运行速度仍然很慢——每个生成步骤至少需要40步以上,而且每一步还包含多达3次处理操作;
MMaudio NSFW音频背景:专为需要成人主题音频背景的用户设计。
项目特点
低显存要求:Wan2GP对显存的需求较低,某些模型甚至仅需6GB 显存即可运行,这使得更多用户能够体验到视频生成的乐趣。
支持老旧GPU:项目不仅支持最新的GPU,还兼容RTX 10XX、20XX等老旧型号,降低了硬件门槛。
高效快速:在最新GPU上,Wan2GP能够非常快速地生成视频,大大缩短了等待时间。
易用性:提供全网页界面,用户无需安装额外软件即可使用,同时集成了模型自动下载、视频生成工具(如遮罩编辑器、提示增强器)、时空生成等功能,简化了操作流程。
Loras支持:允许用户自定义每个模型,以满足个性化需求。
排队系统:用户可以列出想要生成的视频清单,稍后回来查看结果,提高了效率。
应用领域
创意内容制作:设计师、动画师等创意工作者可以利用Wan2GP快速生成概念视频、动画短片或广告素材。
娱乐与社交:用户可以在社交媒体上分享通过Wan2GP生成的有趣视频,增加互动性和趣味性。
教育与培训:教师可以制作生动的教学视频,帮助学生更好地理解和掌握知识;企业也可以利用该技术进行产品演示或员工培训。
影视后期制作:影视行业从业者可以利用Wan2GP进行特效制作、场景渲染等工作,提高制作效率和质量。
使用教程:(建议N卡,显存8G起,内存32G起。支持50系显卡,基于CUDA12.8)
使用和之前发布的Wan2.1以及类似的视频生成软件类似,根据需要,点击最上方的模型列表,切换需要使用的模型,会根据切换的模型自动下载,模型较大,耐心等待下载完成。
注. 模型是通用的,更新新版后,只需要将之前旧版的模型目录(目录下的ckpts)移动到新软件目录下即可,无需重复下载
支持文生视频和图生视频。支持低端显卡运行阿里Wan、腾讯HunyuanVideo以及LTV Video等高精度模型。支持多种Lora类型扩展,请根据页面使用说明将lora模型放入对应的目录手动加载。
启动WebUI后,页面有“指南”选项卡,作者很详细的介绍了不同的模型参数和特点及应用领域、Lora模型的加载及使用以及VACE ControlNet的详细使用说明。UI我也做了大部分汉化,方便大家使用。
基于原版使用文档,我做了详细的翻译,建议大家仔细阅读,作为操作参考。
测试了30-50系显卡,均能正常运行。10-20没做测试,可自行测试
Wan2.2 提示词填写技巧,可以参考官方文档:
https://mp.weixin.qq.com/s/ucHuyomTZ6X2q_tL3wHQQg
https://alidocs.dingtalk.com/i/nodes/jb9Y4gmKWrx9eo4dCql9LlbYJGXn6lpz
软件目录结构:
📂 ckpts/
│ ├── 📂 chinese-wav2vec2-base/
│ │ └── pytorch_model.bin
│ ├── 📂 Qwen2.5-VL-7B-Instruct/
│ │ └── Qwen2.5-VL-7B-Instruct_quanto_bf16_int8.safetensors
│ └── 📂 umt5-xxl/
│ └── models_t5_umt5-xxl-enc-quanto_int8.safetensors
📂 models/
│ ├── 📂 qwen/
│ ├── 📂 wan/
│ ...
📂 deepface/
......
下载地址:
迅雷云盘:https://pan.xunlei.com/s/VOjEP6_o2RmVJiFb4KmnoFeOA1?pwd=v6rx
夸克网盘:
**** 本内容需购买 ****
百度网盘:
**** 本内容需购买 ****
大佬威武!
大佬,能不能把Lora的路径也搞成独立设置的呀?就跟ckpt一样,可以共享 nevets 发表于 2026-1-8 18:08
大佬威武!
大佬,能不能把Lora的路径也搞成独立设置的呀?就跟ckpt一样,可以共享 ...
不好改,因为lora是分类的,不同的分类预设也不一样 我去我现在整个ckpt文件夹有1个多T!正常吗? nevets 发表于 2026-1-10 11:09
我去我现在整个ckpt文件夹有1个多T!正常吗?
模型一直在慢慢新增,所以以后会越来越大。
还不是所有模型,所以加起来有4T了:L
可以根据需要下载,不用的就不下载,或者删了
页:
[1]