无言以对 发表于 2025-4-7 10:30:28

WAN2.1 V2版 - 阿里万相2.1视频生成模型,4G显存可用,支持LoRA,支持Teacache加速,支持批量 支持50系显卡 本地一键整合包下载


阿里万相(WAN 2.1)是阿里巴巴推出的多模态大模型,专注于‌视频生成(文生视频和图生视频)与编辑‌领域。作为WAN系列的升级版本,它在生成质量、控制能力和应用场景上均有显著提升。目前开源视频生成领域最好的模型,没有之一。

今天分享的一键包基于国外大佬 FurkanGozukara 的webui打包整合,支持最50系显卡。FurkanGozukara在原版Wan2.1的基础上整合优化,支持最小4G显存实现视频生成功能,且不需要ComfyUI复杂的工作流。新增LoRa的支持,加入Teacache加速,支持批量生成,以及多个实用扩展功能。


WAN 2.1的核心特点‌ ‌
多模态输入支持‌支持文本、图片、草图、音频等多模态输入生成视频,用户可通过灵活的组合方式控制内容生成。 例如:上传一张静态图片+文本描述,即可生成动态视频。 ‌
高分辨率与长视频生成‌可生成1080p及以上分辨率的视频,并支持生成更长的连贯片段(相比早期版本)。 通过时序建模优化,减少帧间闪烁问题。 ‌
精细化控制‌提供细粒度的运动控制(如物体运动轨迹、镜头运镜)和风格控制(如写实、卡通、水墨等)。
支持对生成视频的局部编辑(如替换特定物体或背景)。 ‌中文场景优化‌针对中文文化和本土化需求(如古风、节日主题)进行了数据训练和优化。 ‌
商业化集成‌与阿里云生态深度整合,提供API接口,便于企业快速部署到电商、广告等场景。


典型应用领域‌ ‌
电商与广告‌自动生成商品展示视频(如服装动态穿搭、家电功能演示)。 定制化广告内容(根据用户画像生成个性化视频广告)。 ‌
短视频与社交‌用户通过文本或图片快速生成UGC内容(如抖音/B站创意视频)。
虚拟主播/数字人视频生成。 ‌影视与设计‌辅助分镜生成、特效预演,降低制作成本。 古风、动漫等风格化视频创作。 ‌
教育与企业服务‌将课件/说明书转换为动态视频,提升信息传达效率。


使用教程:(建议N卡,显存4G起。基于CUDA12.8)
和之前的Wan操作类似,最简单的操作就是,输入提示词,支持大语言模型增强提示词(基于Qwen2.5-3B),选择模型,最后生成。
图生视频类似,上传图片,选择模型,输入提示词,生成。
虽然4G显存可以玩,但参数都拉到最低,效果一般。建议显存8G起,可选参数更丰富。因部分处理转移到内存,所以图生视频建议内存(RAM)32G起,否则会很慢。
这个版本的webui扩展功能很丰富,但之前玩过视频生成的一看就能立刻上手。小白需要一段时间摸索,后期会出一期视频教程介绍。

注.因模型较大,一共加起来100多G,故默认只打包1.3B文生视频模型,其他14B文/图生视频模型请根据需要自行下载,直接点击一键包内的对应型号模型下载即可。


2025年4月8日修复:https://pan.baidu.com/s/1Mvhxg7f6DsaJgkoBcSoJhw?pwd=dktd
下载这个补丁,放到一键包根目录,双击运行,等待完成,再运行一键启动


下载地址:
夸克网盘:https://pan.quark.cn/s/15fa0c87282d
百度网盘:**** 本内容需购买 ****

解压密码:https://deepface.cc/ 复制这个完整的网址即是解压密码,不要有空格,复制粘贴即可

Johnsonsjone 发表于 2025-4-7 12:40:12

期待~~!

jerryleee1 发表于 2025-4-7 13:50:41

自动生成商品展示视频(如服装动态穿搭、家电功能演示)

提示词该怎么写呢,比如是服装~

无言以对 发表于 2025-4-7 14:46:24

jerryleee1 发表于 2025-4-7 13:50
自动生成商品展示视频(如服装动态穿搭、家电功能演示)

提示词该怎么写呢,比如是服装~ ...

去deepseek或者百度文心一言去问问,输入一个提示词,让大模型给你润润色

guozhixin86 发表于 2025-4-7 20:53:43

这个我试试,可能比较适合我现在的职业吧:loveliness::loveliness:

maya2024 发表于 2025-4-7 22:16:47

请问这是什么情况

viktor1982 发表于 2025-4-8 00:23:19

Можно добавить что можно было перенести лицо и персонажа в следующихгенераций видео

ken7121 发表于 2025-4-8 01:25:23

Traceback (most recent call last):
File "T:\Wan2.1-V2\app.py", line 25, in <module>
    from diffsynth import ModelManager, WanVideoPipeline, save_video, VideoData
ModuleNotFoundError: No module named 'diffsynth'
Press any key to continue . . .

wemade 发表于 2025-4-8 03:08:11

W0408 03:06:39.197000 32308 deepface\Lib\site-packages\torch\distributed\elastic\multiprocessing\redirects.py:29] NOTE: Redirects are currently not supported in Windows or MacOs.
C:\Users\Administrator\Desktop\Wan2.1-V2\wan\modules\model.py:28: FutureWarning: `torch.cuda.amp.autocast(args...)` is deprecated. Please use `torch.amp.autocast('cuda', args...)` instead.
@amp.autocast(enabled=False)
C:\Users\Administrator\Desktop\Wan2.1-V2\wan\modules\model.py:39: FutureWarning: `torch.cuda.amp.autocast(args...)` is deprecated. Please use `torch.amp.autocast('cuda', args...)` instead.
@amp.autocast(enabled=False)
Traceback (most recent call last):
File "C:\Users\Administrator\Desktop\Wan2.1-V2\app.py", line 25, in <module>
    from diffsynth import ModelManager, WanVideoPipeline, save_video, VideoData
ModuleNotFoundError: No module named 'diffsynth'
Press any key to continue . . .老大不知道怎么修复

无言以对 发表于 2025-4-8 06:45:19

maya2024 发表于 2025-4-7 22:16
请问这是什么情况

等修复
页: [1] 2 3 4 5
查看完整版本: WAN2.1 V2版 - 阿里万相2.1视频生成模型,4G显存可用,支持LoRA,支持Teacache加速,支持批量 支持50系显卡 本地一键整合包下载