Wan2GP V14版 - 低配显卡玩转AI视频生成,优化Qwen-Image模型 支持50系显卡 一键整合包下载
Wan2GP 是一个由DeepBeepMeep开发的开源视频生成模型项目,旨在为GPU资源有限的用户提供高质量的视频生成体验。它囊括了多种视频生成模型,包括阿里的Wan及其衍生模型、腾讯的Hunyuan Video和LTV Video等主流视频生成模型,通过简洁易用的网页界面,用户无需深入了解复杂的模型细节,即可轻松生成想要的视频内容。
Wan2GP 的问世,让广大低端显卡用户也能玩转高大上的视频生成项目了。就以HunyuanVideo 13B图生视频模型来说,原版需要至少80G显存才能跑得动的模型,现在 Wan2GP 把这个标准降低到10GB,而且生成的视频质量几乎没用任何的损失和降低。但缺点也是有的,生成时间会拉长,同时需要更大的运行内存。
今天分享的 Wan2GP V14版,基于官方8月8日的V7.73打包,优化了Qwen-Image模型的图像生成,修复了上个版本生成错误率高和内存占用过高的问题,修复了40系以下显卡报错的问题。在尽量保证功能完整的情况下,进一步对WebUI做了更多的汉化翻译,目前汉化率97%。新增“多开”功能,支持一次开启多个WebUI。
注. 从V6版开始,提供两种版本,免费版和付费版。区别为:免费版不再提供中文翻译,原汁原味官方原版,不包含模型;付费版为中文翻译版,包含一些常用的模型,后期会逐步加入更多模型,以及一些优化功能加入。
主要更新内容如下:
8月8日更新
环境部分:
更新torch到2.7.1;SageAttention 更新至2.2,与 2.1 相比,这提高了在 RTX 40xx(sm89)和 50xx(sm120)GPU 上的速度
软件部分:
Qwen Image:一个商业级的图像生成器,能够在生成的图像中注入完整的句子,同时仍然提供令人惊叹的视觉效果
从未想过不使用引导会对期望使用引导的模型产生什么影响吗?只需看看 WanGP 7.71 中的 Qween Image,其输出非常混乱。事实上,我一度认为 Qwen 是一个精简模型。实际上,Qwen 需要一个负提示词。而在 WanGP 7.72 中,终于为它添加了一个
由于 Qwen 其实并不挑剔,我还添加了一个量化文本编码器,这将 Qwen 的 RAM 需求减少了 10GB(量化后的文本编码器之前会产生垃圾输出)
不幸的是,仍然存在针对较旧 GPU 架构的 Sage 漏洞。为此类架构添加了 Sdpa 回退
7.73 更新:对于 RTX40xx 之前的 GPU,仍然存在 Sage / Sage2 漏洞。我添加了一个检测机制,如果出现这种情况,将强制使用 Sdpa 注意力机制。
项目特点
低显存要求:Wan2GP对显存的需求较低,某些模型甚至仅需6GB 显存即可运行,这使得更多用户能够体验到视频生成的乐趣。
支持老旧GPU:项目不仅支持最新的GPU,还兼容RTX 10XX、20XX等老旧型号,降低了硬件门槛。
高效快速:在最新GPU上,Wan2GP能够非常快速地生成视频,大大缩短了等待时间。
易用性:提供全网页界面,用户无需安装额外软件即可使用,同时集成了模型自动下载、视频生成工具(如遮罩编辑器、提示增强器)、时空生成等功能,简化了操作流程。
Loras支持:允许用户自定义每个模型,以满足个性化需求。
排队系统:用户可以列出想要生成的视频清单,稍后回来查看结果,提高了效率。
应用领域
创意内容制作:设计师、动画师等创意工作者可以利用Wan2GP快速生成概念视频、动画短片或广告素材。
娱乐与社交:用户可以在社交媒体上分享通过Wan2GP生成的有趣视频,增加互动性和趣味性。
教育与培训:教师可以制作生动的教学视频,帮助学生更好地理解和掌握知识;企业也可以利用该技术进行产品演示或员工培训。
影视后期制作:影视行业从业者可以利用Wan2GP进行特效制作、场景渲染等工作,提高制作效率和质量。
使用教程:(建议N卡,显存8G起,内存32G起。支持50系显卡,基于CUDA12.8)
使用和之前发布的Wan2.1以及类似的视频生成软件类似,根据需要,点击最上方的模型列表,切换需要使用的模型,会根据切换的模型自动下载,模型较大,耐心等待下载完成。
注. 模型是通用的,更新新版后,只需要将之前旧版的模型目录(目录下的ckpts)移动到新软件目录下即可,无需重复下载
支持文生视频和图生视频。支持低端显卡运行阿里Wan、腾讯HunyuanVideo以及LTV Video等高精度模型。支持多种Lora类型扩展,请根据页面使用说明将lora模型放入对应的目录手动加载。
启动WebUI后,页面有“指南”选项卡,作者很详细的介绍了不同的模型参数和特点及应用领域、Lora模型的加载及使用以及VACE ControlNet的详细使用说明。UI我也做了大部分汉化,方便大家使用。
基于原版使用文档,我做了详细的翻译,建议大家仔细阅读,作为操作参考。
测试了30-50系显卡,均能正常运行。10-20没做测试,有些模型估计运行不了
Wan2.2 提示词填写技巧,可以参考官方文档:
https://mp.weixin.qq.com/s/ucHuyomTZ6X2q_tL3wHQQg
https://alidocs.dingtalk.com/i/nodes/jb9Y4gmKWrx9eo4dCql9LlbYJGXn6lpz
下载地址:
迅雷云盘:https://pan.xunlei.com/s/VOXD96SsEq6pxM-oSv-JG-cZA1?pwd=tgnk
夸克网盘:**** 本内容需购买 ****
百度网盘:**** 本内容需购买 ****
效率好高啊,都V14了 大佬,为啥这个包无论生图还是生视频总感觉质量会掉一档,同一张图或者同一句提示词,通WAN2.2生成的视频细节会糊成一坨浆糊,Qwen Image也好像变差了文字出错几率基本百分之五十,用其他独立包都不会这样,这个整合包反而感觉降质了,我是4090,9950X,96GB运行内存的配置,是不是整合包里面那个配置设置上得怎么优化下? h234680 发表于 2025-8-10 11:03
大佬,为啥这个包无论生图还是生视频总感觉质量会掉一档,同一张图或者同一句提示词,通WAN2.2生成的视频细 ...
QwenImage生成是有点问题,估计下一版会修复。
视频应该没问题吧,你试试V13的视频生成
细节需要提高分辨率,和推理步数,你试试调节这俩参数
对了,设置里-性能-个性化设置,根据自己的配置调整
你的配置可以选择 高运行内存_高显存, profile 1这个模式
也可以试试 Transformer 模型量化类型(如果可用) 这个参数改成 16位无量化
而且我发现在我只有2.2模型的时候,他也会下2.1的VAE。这是咋回事,二者共用VAE么?但是我看模型目录也有2.2的VAE啊
To create a public link, set `share=True` in `launch()`.
Wan2.1_VAE.safetensors: 0%|
Wan2.1_VAE.safetensors:13%|███████████ | 67.1M
Wan2.1_VAE.safetensors:26%|██████████████████████▍ | 134M
Wan2.1_VAE.safetensors:47%|████████████████████████████████████████ | 239M
Wan2.1_VAE.safetensors:60%|███████████████████████████████████████████████████▎ | 306M
Wan2.1_VAE.safetensors:74%|██████████████████████████████████████████████████████████████▌ | 373M
Wan2.1_VAE.safetensors:87%|█████████████████████████████████████████████████████████████████████████▊ | 441M
Wan2.1_VAE.safetensors: 100%|█████████████████████████████████████████████████████████████████████████████████████| 508M
Wan2.1_VAE.safetensors: 100%|█████████████████████████████████████████████████████████████████████████████████████| 508M/508M
加载模型 'ckpts/wan2.2_image2video_14B_high_quanto_mbf16_int8.safetensors' ...
加载模型 'ckpts/wan2.2_image2video_14B_low_quanto_mbf16_int8.safetensors' ...
************ Memory Management for the GPU Poor (mmgp 3.5.7) by DeepBeepMeep ************
Switching to partial pinning since full requirements for pinned models is 46773.4 MB while estimated available reservable RAM is 38320.1 MB. You may increase the value of parameter 'perc_reserved_mem_max' to a value higher than 0.40 to force full pinnning.
Partial pinning of data of 'transformer' to reserved RAM
The model was partially pinned to reserved RAM: 60 large blocks spread across 13413.83 MB
Hooked to model 'transformer' (WanModel)
Partial pinning of data of 'text_encoder' to reserved RAM
The model was partially pinned to reserved RAM: 40 large blocks spread across 8832.47 MB
Hooked to model 'text_encoder' (T5Encoder)
Partial pinning of data of 'vae' to reserved RAM
The model was partially pinned to reserved RAM: 2 large blocks spread across 356.05 MB
Hooked to model 'vae' (WanVAE_)
Hooked to model 'vae' (WanVAE_)
Hooked to model 'vae' (WanVAE_) h234680 发表于 2025-8-10 11:40
而且我发现在我只有2.2模型的时候,他也会下2.1的VAE。这是咋回事,二者共用VAE么?但是我看模型目录也有2. ...
V13更新里有说明
Wan 2.2 文本图像的 VAE 解码尚未进行平铺处理 无言以对 发表于 2025-8-10 11:06
QwenImage生成是有点问题,估计下一版会修复。
视频应该没问题吧,你试试V13的视频生成
细节需要提高分辨 ...
好的谢谢,我都调调看吧 大佬 为什么 下载模型这么慢 要科技吗? c30459083 发表于 2025-8-20 16:36
大佬 为什么 下载模型这么慢 要科技吗?
用科技更慢不用还有 100多K| 388M/4.98G 很慢~~~ c30459083 发表于 2025-8-20 16:37
用科技更慢不用还有 100多K| 388M/4.98G
https://deepface.cc/thread-750-1-1.html
页:
[1]