WAN2.1 V2版 - 阿里万相2.1视频生成模型,4G显存可用,支持LoRA,支持Teacache加速,支持批量 支持50系显卡 本地一键整合包下载
阿里万相(WAN 2.1)是阿里巴巴推出的多模态大模型,专注于视频生成(文生视频和图生视频)与编辑领域。作为WAN系列的升级版本,它在生成质量、控制能力和应用场景上均有显著提升。目前开源视频生成领域最好的模型,没有之一。
今天分享的一键包基于国外大佬 FurkanGozukara 的webui打包整合,支持最50系显卡。FurkanGozukara在原版Wan2.1的基础上整合优化,支持最小4G显存实现视频生成功能,且不需要ComfyUI复杂的工作流。新增LoRa的支持,加入Teacache加速,支持批量生成,以及多个实用扩展功能。
WAN 2.1的核心特点
多模态输入支持支持文本、图片、草图、音频等多模态输入生成视频,用户可通过灵活的组合方式控制内容生成。 例如:上传一张静态图片+文本描述,即可生成动态视频。
高分辨率与长视频生成可生成1080p及以上分辨率的视频,并支持生成更长的连贯片段(相比早期版本)。 通过时序建模优化,减少帧间闪烁问题。
精细化控制提供细粒度的运动控制(如物体运动轨迹、镜头运镜)和风格控制(如写实、卡通、水墨等)。
支持对生成视频的局部编辑(如替换特定物体或背景)。 中文场景优化针对中文文化和本土化需求(如古风、节日主题)进行了数据训练和优化。
商业化集成与阿里云生态深度整合,提供API接口,便于企业快速部署到电商、广告等场景。
典型应用领域
电商与广告自动生成商品展示视频(如服装动态穿搭、家电功能演示)。 定制化广告内容(根据用户画像生成个性化视频广告)。
短视频与社交用户通过文本或图片快速生成UGC内容(如抖音/B站创意视频)。
虚拟主播/数字人视频生成。 影视与设计辅助分镜生成、特效预演,降低制作成本。 古风、动漫等风格化视频创作。
教育与企业服务将课件/说明书转换为动态视频,提升信息传达效率。
使用教程:(建议N卡,显存4G起。基于CUDA12.8)
和之前的Wan操作类似,最简单的操作就是,输入提示词,支持大语言模型增强提示词(基于Qwen2.5-3B),选择模型,最后生成。
图生视频类似,上传图片,选择模型,输入提示词,生成。
虽然4G显存可以玩,但参数都拉到最低,效果一般。建议显存8G起,可选参数更丰富。因部分处理转移到内存,所以图生视频建议内存(RAM)32G起,否则会很慢。
这个版本的webui扩展功能很丰富,但之前玩过视频生成的一看就能立刻上手。小白需要一段时间摸索,后期会出一期视频教程介绍。
注.因模型较大,一共加起来100多G,故默认只打包1.3B文生视频模型,其他14B文/图生视频模型请根据需要自行下载,直接点击一键包内的对应型号模型下载即可。
2025年4月8日修复:https://pan.baidu.com/s/1Mvhxg7f6DsaJgkoBcSoJhw?pwd=dktd
下载这个补丁,放到一键包根目录,双击运行,等待完成,再运行一键启动
下载地址:
夸克网盘:https://pan.quark.cn/s/15fa0c87282d
百度网盘:**** 本内容需购买 ****
解压密码:https://deepface.cc/ 复制这个完整的网址即是解压密码,不要有空格,复制粘贴即可
期待~~! 自动生成商品展示视频(如服装动态穿搭、家电功能演示)
提示词该怎么写呢,比如是服装~ jerryleee1 发表于 2025-4-7 13:50
自动生成商品展示视频(如服装动态穿搭、家电功能演示)
提示词该怎么写呢,比如是服装~ ...
去deepseek或者百度文心一言去问问,输入一个提示词,让大模型给你润润色 这个我试试,可能比较适合我现在的职业吧:loveliness::loveliness: 请问这是什么情况
Можно добавить что можно было перенести лицо и персонажа в следующихгенераций видео Traceback (most recent call last):
File "T:\Wan2.1-V2\app.py", line 25, in <module>
from diffsynth import ModelManager, WanVideoPipeline, save_video, VideoData
ModuleNotFoundError: No module named 'diffsynth'
Press any key to continue . . . W0408 03:06:39.197000 32308 deepface\Lib\site-packages\torch\distributed\elastic\multiprocessing\redirects.py:29] NOTE: Redirects are currently not supported in Windows or MacOs.
C:\Users\Administrator\Desktop\Wan2.1-V2\wan\modules\model.py:28: FutureWarning: `torch.cuda.amp.autocast(args...)` is deprecated. Please use `torch.amp.autocast('cuda', args...)` instead.
@amp.autocast(enabled=False)
C:\Users\Administrator\Desktop\Wan2.1-V2\wan\modules\model.py:39: FutureWarning: `torch.cuda.amp.autocast(args...)` is deprecated. Please use `torch.amp.autocast('cuda', args...)` instead.
@amp.autocast(enabled=False)
Traceback (most recent call last):
File "C:\Users\Administrator\Desktop\Wan2.1-V2\app.py", line 25, in <module>
from diffsynth import ModelManager, WanVideoPipeline, save_video, VideoData
ModuleNotFoundError: No module named 'diffsynth'
Press any key to continue . . .老大不知道怎么修复
maya2024 发表于 2025-4-7 22:16
请问这是什么情况
等修复