Wan2.2-Remix V2版 - 专注于人物动态、逼真运动和场景一致性丝滑图生视频 支持NSFW 一键整合包下载
Wan2.2-Remix 是一个基于Wan2.2的优化版AI视频生成模型,它最大的特点是使用文本提示或图像直接生成短片电影片段。它专注于人物动态、逼真运动和场景一致性,无需 LoRA 设置即可产生逼真的运动和流畅的过渡。
Wan2.2-Remix 默认已包含 NSFW 功能,能够生成高质量的 NSFW 主题视频,无需额外的 LoRA。且经过多次优化改进,无论是生成视频质量还是动画效果,尤其是人物和场景一致性方面,都优于同类开源模型。
今天分享的 Wan2.2-Remix V2版,相较于上个版本,更新至最新的V3版Remix模型,重构WebUI,支持图生视频和首尾帧视频生成,且继承了最新的NSFW版的文本编码器,玩转“个性化”视频更加得心应手。
Remix V3版主要包含以下更新:添加 VBVR LoRA 以增强空间理解并提高场景一致性;引入了 UnifiedReward 优化,以提升整体视频质量和生成稳定性;调整了几个 NSFW LoRAs,以提升 NSFW 场景的质量和视觉一致性。
主要特点
支持两种玩法:
T2V(Text to Video):
纯文字描述生成视频。比如你打字“一个女孩在海边奔跑,夕阳下头发飞舞”,它就能直接出视频。
I2V(Image to Video):给它一张静态图片,它让图片“活”起来。比如上传一张美女照片,它能让人物眨眼、转头、走动,或者让背景的树叶摇晃。
动作更自然、更多样:这个Remix版在原版Wan 2.2基础上做了优化,动作更流畅、不那么僵硬,运动幅度更大(不会老是“轻微抖动”那种小动作),细节保留也更好。
质量高但速度较快:相比一些老旧的视频模型,它生成速度不错(很多用户搭配ComfyUI工作流,能在几分钟内出结果),分辨率支持较高(常见720p左右),画面清晰、色彩自然。
版本亮点:目前页面主推 I2V High v3.0 这个版本,专门加强了图像转视频的高质量模式。
应用领域
创意视频制作:短视频创作者、抖音/TikTok/B站 UP主,用来快速生成特效镜头、动态头像、故事短片。
游戏/动画预览:做游戏概念演示、角色动作测试、场景动画草稿。
广告与营销:给产品照片加动态效果,比如衣服飘动、汽车行驶、食物冒热气,快速做出宣传视频。
艺术与实验:AI艺术家做抽象动态艺术、梦幻场景、人物表演视频。
个人娱乐:把自己的照片或喜欢的画变成会动的视频,玩得很开心(包括一些NSFW内容也支持,但要看平台规则)。
电影/影视前期:导演用来快速可视化分镜、测试镜头运动。
使用教程:(建议N卡,显存8G起,支持50系显卡)
整合包包含所需所有节点,下载主程序和模型(ComfyUI文件夹),解压主程序一键包,将ComfyUI文件夹移动到主程序目录下即可。
ComfyUI模式:
双击启动ComfyUI,进入WebUI后,点击左侧的 工作流程,选择对应的工作流,根据需要选择图生视频和首尾帧视频生成,左侧有开关,根据需要开启和关闭。
上传需要生成的图像,输入提示词,设置相关参数,运行即可。
实测8G显存可以运行,但需要开启共享显存,且运存需要32G起。
WebUI模式:
双击启动Webui,根据需要切换图生视频和首尾帧视频生成选项卡,上传图像,输入提示词,设置相关参数,运行生成即可。
模型切换:(点此下载,包含高噪和低噪模型,模型手动下载后,保存到 ComfyUI\models\unet 目录下,运行WebUI,在模型切换下拉选择更新的模型)
默认开启Sage加速,如报错,可手动关闭加速。注. 开启sage_attention 加速需要本地安装VC编译环境,具体安装教程参考 此贴
提示词(prompt)写得越详细越好,比如加上“流畅运动、自然光影、高细节、电影感”等,能让效果更好。
一键包内包含 提示词生成技巧教程,教程来自B站UP Work-Fisher
软件目录结构:
📂 ComfyUI/
├── 📂 models/
│ ├── 📂 unet/
│ │ └── wan22RemixT2VI2V_i2vHighV30-Q4_K_M.gguf
│ │ └── wan22RemixT2VI2V_i2vLowV30-Q4_K_M.gguf
│ ├── 📂 text_encoders/
│ │ └── nsfw_wan_umt5-xxl_fp8_scaled.safetensors
│ └── 📂 vae/
│ └── wan_2.1_vae.safetensors
📂 deepface/
......
下载地址:
迅雷云盘:https://pan.xunlei.com/s/VOo_FKlPI8XO1LJ7bAIvF11dA1?pwd=4fth
夸克网盘:
**** 本内容需购买 ****
百度网盘:
**** 本内容需购买 ****
这个看起来真不错,谢谢分享!!! output = await app.get_blocks().process_api(
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\baidupan\ComfyUI_Wan2.2-Remix-V2\ComfyUI_Wan2.2-Remix-V2\deepface\Lib\site-packages\gradio\blocks.py", line 2116, in process_api
result = await self.call_function(
^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\baidupan\ComfyUI_Wan2.2-Remix-V2\ComfyUI_Wan2.2-Remix-V2\deepface\Lib\site-packages\gradio\blocks.py", line 1623, in call_function
prediction = await anyio.to_thread.run_sync(# type: ignore
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\baidupan\ComfyUI_Wan2.2-Remix-V2\ComfyUI_Wan2.2-Remix-V2\deepface\Lib\site-packages\anyio\to_thread.py", line 56, in run_sync
return await get_async_backend().run_sync_in_worker_thread(
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\baidupan\ComfyUI_Wan2.2-Remix-V2\ComfyUI_Wan2.2-Remix-V2\deepface\Lib\site-packages\anyio\_backends\_asyncio.py", line 2485, in run_sync_in_worker_thread
return await future
^^^^^^^^^^^^
File "E:\baidupan\ComfyUI_Wan2.2-Remix-V2\ComfyUI_Wan2.2-Remix-V2\deepface\Lib\site-packages\anyio\_backends\_asyncio.py", line 976, in run
result = context.run(func, *args)
^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\baidupan\ComfyUI_Wan2.2-Remix-V2\ComfyUI_Wan2.2-Remix-V2\deepface\Lib\site-packages\gradio\utils.py", line 915, in wrapper
response = f(*args, **kwargs)
^^^^^^^^^^^^^^^^^^
File "<frozen app>", line 844, in generate_f2e
gradio.exceptions.Error: '未找到生成的视频'
首尾帧运行了一会 到这就G了我首尾帧用的一张图V1没有这个问题这个我是真不会了 没问题了 是最长边数值的问题 默认720太糊了 我改了1360就G了1024一切正常 output = await app.get_blocks().process_api(
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\baidupan\ComfyUI_Wan2.2-Remix-V2\ComfyUI_Wan2.2-Remix-V2\deepface\Lib\site-packages\gradio\blocks.py", line 2116, in process_api
result = await self.call_function(
^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\baidupan\ComfyUI_Wan2.2-Remix-V2\ComfyUI_Wan2.2-Remix-V2\deepface\Lib\site-packages\gradio\blocks.py", line 1623, in call_function
prediction = await anyio.to_thread.run_sync(# type: ignore
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\baidupan\ComfyUI_Wan2.2-Remix-V2\ComfyUI_Wan2.2-Remix-V2\deepface\Lib\site-packages\anyio\to_thread.py", line 56, in run_sync
return await get_async_backend().run_sync_in_worker_thread(
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\baidupan\ComfyUI_Wan2.2-Remix-V2\ComfyUI_Wan2.2-Remix-V2\deepface\Lib\site-packages\anyio\_backends\_asyncio.py", line 2485, in run_sync_in_worker_thread
return await future
^^^^^^^^^^^^
File "E:\baidupan\ComfyUI_Wan2.2-Remix-V2\ComfyUI_Wan2.2-Remix-V2\deepface\Lib\site-packages\anyio\_backends\_asyncio.py", line 976, in run
result = context.run(func, *args)
^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\baidupan\ComfyUI_Wan2.2-Remix-V2\ComfyUI_Wan2.2-Remix-V2\deepface\Lib\site-packages\gradio\utils.py", line 915, in wrapper
response = f(*args, **kwargs)
^^^^^^^^^^^^^^^^^^
File "<frozen app>", line 844, in generate_f2e
gradio.exceptions.Error: '未找到生成的视频'
同样的问题,求解决办法 wtsun2 发表于 2026-4-1 01:00
output = await app.get_blocks().process_api(
^^^^^^^^^^^^^^^ ...
看你楼上的解决方案
显卡太差的,分辨率也就是最长边别改,还有帧数也是。 无言以对 发表于 2026-4-1 07:00
看你楼上的解决方案
显卡太差的,分辨率也就是最长边别改,还有帧数也是。 ...
我再折腾吧,买了垃圾佬的V100显卡,到现在才知道显卡运行在TCC模式 wtsun2 发表于 2026-4-1 08:06
我再折腾吧,买了垃圾佬的V100显卡,到现在才知道显卡运行在TCC模式
这种卡主要是架构太老,之前我800在海鲜上淘了一块16g的V100,折腾一天问题太多就退了。
如果你有动手能力,这卡还是很不错的 无言以对 发表于 2026-4-1 09:11
这种卡主要是架构太老,之前我800在海鲜上淘了一块16g的V100,折腾一天问题太多就退了。
如果你有动手能 ...
搞定了,安装第三方显卡驱动,显卡运行模式从TCC模式改成WDDM模式;运行模型生成视频的时候关闭Sage加速,顺利出视频,显存占用峰值10个G
页:
[1]