|

阿里万相(WAN 2.1)是阿里巴巴推出的多模态大模型,专注于视频生成(文生视频和图生视频)与编辑领域。作为WAN系列的升级版本,它在生成质量、控制能力和应用场景上均有显著提升。目前开源视频生成领域最好的模型,没有之一。
今天分享的WAN2.1 V3版基于国外大佬 FurkanGozukara 的webui打包整合,修复了上个版本几个报错问题,支持最50系显卡,支持文生视频、图生视频及视频生成视频等功能。FurkanGozukara在原版Wan2.1的基础上整合优化,支持最小4G显存实现视频生成功能,且不需要ComfyUI复杂的工作流。新增LoRa的支持,加入Teacache加速,支持批量生成,以及多个实用扩展功能。
WAN 2.1的核心特点
多模态输入支持 支持文本、图片、草图、音频等多模态输入生成视频,用户可通过灵活的组合方式控制内容生成。 例如:上传一张静态图片+文本描述,即可生成动态视频。
高分辨率与长视频生成 可生成1080p及以上分辨率的视频,并支持生成更长的连贯片段(相比早期版本)。 通过时序建模优化,减少帧间闪烁问题。
精细化控制 提供细粒度的运动控制(如物体运动轨迹、镜头运镜)和风格控制(如写实、卡通、水墨等)。
支持对生成视频的局部编辑(如替换特定物体或背景)。 中文场景优化 针对中文文化和本土化需求(如古风、节日主题)进行了数据训练和优化。
商业化集成 与阿里云生态深度整合,提供API接口,便于企业快速部署到电商、广告等场景。
应用领域
电商与广告 自动生成商品展示视频(如服装动态穿搭、家电功能演示)。 定制化广告内容(根据用户画像生成个性化视频广告)。
短视频与社交 用户通过文本或图片快速生成UGC内容(如抖音/B站创意视频)。
虚拟主播/数字人视频生成。 影视与设计 辅助分镜生成、特效预演,降低制作成本。 古风、动漫等风格化视频创作。
教育与企业服务 将课件/说明书转换为动态视频,提升信息传达效率。
使用教程:(建议N卡,显存4G起。基于CUDA12.8)
和之前的Wan操作类似,最简单的操作就是,输入提示词,支持大语言模型增强提示词(基于Qwen2.5-3B),选择模型,最后生成。
图生视频类似,上传图片,选择模型,输入提示词,生成。
虽然4G显存可以玩,但参数都拉到最低,效果一般。建议显存8G起,可选参数更丰富。因部分处理转移到内存,所以图生视频建议内存(RAM)32G起,否则会很慢。
这个版本的webui扩展功能很丰富,但之前玩过视频生成的一看就能立刻上手。小白需要一段时间摸索,后期会出一期视频教程介绍。
注.因模型较大,一共加起来100多G,故默认只打包1.3B文生视频模型,其他14B文/图生视频模型请根据需要自行下载,直接点击一键包内的对应型号模型下载即可。
下载过V2版的,可以直接将V2版的models文件夹拷贝过来。
下载地址:
迅雷云盘:https://pan.xunlei.com/s/VOOlQG80YdubhdMd9PHNzs5iA1?pwd=jxs5
百度网盘:游客, 上上宾会员可免费下载该资源, 点此开通上上宾 免费下载全站99%的付费资源。或单独支付 30碎银 下载该资源 立即购买
解压密码:https://deepface.cc/ 复制这个完整的网址即是解压密码,不要有空格,复制粘贴即可
|
DEEPFACE论坛免责声明
本论坛发布的所有内容,包括图片、软件、模型等部分来自网络,版权归原作者所有。
本论坛提供的内容仅用于个人学习和研究,请勿滥用,否则由此引发的责任需自行承担。
请合理合法使用AI技术,并遵守当地法律法规,不要用于违法用途!
如本站发布内容侵犯了你的合法权益,请联系我们删除。
|