AI资源站
标题:
WAN2.1 V3版 - 阿里万相2.1视频生成模型,4G显存可用,支持LoRA,支持批量 支持50系显卡 本地一键整合包下载
[打印本页]
作者:
无言以对
时间:
昨天 12:46
标题:
WAN2.1 V3版 - 阿里万相2.1视频生成模型,4G显存可用,支持LoRA,支持批量 支持50系显卡 本地一键整合包下载
(, 下载次数: 0)
上传
点击文件名下载附件
阿里万相(
WAN
2.1)是阿里巴巴推出的多模态大模型,专注于视频生成(文生视频和图生视频)与编辑领域。作为WAN系列的升级版本,它在生成质量、控制能力和应用场景上均有显著提升。目前开源视频生成领域最好的模型,没有之一。
今天分享的WAN2.1 V3版基于国外大佬
FurkanGozukara
的webui打包整合,
修复了上个版本几个报错问题
,支持最50系显卡,支持文生视频、图生视频及视频生成视频等功能。FurkanGozukara在原版Wan2.1的基础上整合优化,支持最小4G显存实现视频生成功能,且不需要ComfyUI复杂的工作流。新增LoRa的支持,加入Teacache加速,支持批量生成,以及多个实用扩展功能。
WAN 2.1的核心特点
多模态输入支持 支持文本、图片、草图、音频等多模态输入生成视频,用户可通过灵活的组合方式控制内容生成。 例如:上传一张静态图片+文本描述,即可生成动态视频。
高分辨率与长视频生成 可生成1080p及以上分辨率的视频,并支持生成更长的连贯片段(相比早期版本)。 通过时序建模优化,减少帧间闪烁问题。
精细化控制 提供细粒度的运动控制(如物体运动轨迹、镜头运镜)和风格控制(如写实、卡通、水墨等)。
支持对生成视频的局部编辑(如替换特定物体或背景)。 中文场景优化 针对中文文化和本土化需求(如古风、节日主题)进行了数据训练和优化。
商业化集成 与阿里云生态深度整合,提供API接口,便于企业快速部署到电商、广告等场景。
应用领域
电商与广告 自动生成商品展示视频(如服装动态穿搭、家电功能演示)。 定制化广告内容(根据用户画像生成个性化视频广告)。
短视频与社交 用户通过文本或图片快速生成UGC内容(如抖音/B站创意视频)。
虚拟主播/数字人视频生成。 影视与设计 辅助分镜生成、特效预演,降低制作成本。 古风、动漫等风格化视频创作。
教育与企业服务 将课件/说明书转换为动态视频,提升信息传达效率。
使用教程
:(建议N卡,显存4G起。基于CUDA12.8)
和之前的Wan操作类似,最简单的操作就是,输入提示词,支持大语言模型增强提示词(基于Qwen2.5-3B),选择模型,最后生成。
图生视频类似,上传图片,选择模型,输入提示词,生成。
虽然4G显存可以玩,但参数都拉到最低,效果一般。建议显存8G起,可选参数更丰富。因部分处理转移到内存,所以图生视频建议内存(RAM)32G起,否则会很慢。
这个版本的webui扩展功能很丰富,但之前玩过视频生成的一看就能立刻上手。小白需要一段时间摸索,后期会出一期视频教程介绍。
注.因模型较大,一共加起来100多G,故默认只打包1.3B文生视频模型,其他14B文/图生视频模型请根据需要自行下载,直接点击一键包内的对应型号模型下载即可。
下载过V2版的,可以直接将V2版的models文件夹拷贝过来。
下载地址:
迅雷云盘:
https://pan.xunlei.com/s/VOOlQG80YdubhdMd9PHNzs5iA1?pwd=jxs5
百度网盘:
**** 本内容需购买 ****
解压密码:
https://deepface.cc/
复制这个完整的网址即是解压密码,不要有空格,复制粘贴即可
作者:
jerryleee1
时间:
昨天 16:52
生成速度如何?跟FramePack V4版比 有优势吗
作者:
无言以对
时间:
昨天 17:04
jerryleee1 发表于 2025-4-26 16:52
生成速度如何?跟FramePack V4版比 有优势吗
也是看显卡,比FP慢
作者:
inhva1
时间:
昨天 17:40
无言以对 发表于 2025-4-26 17:04
也是看显卡,比FP慢
大佬,生成的效果呢?哪个效果更好些啊
欢迎光临 AI资源站 (https://deepface.cc/)
Powered by Discuz! X3.5