Z-Image Nunchaku加速版 V2版 - 更快、更好的AI文生图 新增lora 4G显存可用 ComfyUI+WebUI双模式 一键整合包下载
Z-Image(造相)是阿里巴巴通义实验室最新开源的一个强大且高效的图像生成模型,凭借轻量参数实现重量级模型的视觉质量,支持中英双语渲染并在消费级显卡上实现秒级出图。
Z-Image(造相)除了更快、更强、更丝滑的使用体验,还在速度、显存占用、中文能力、编辑体验上表现出惊人的能力。消费级显卡上可实现秒级生成,真实感、构图、美学表现均超同类开源模型,总结四个字:快、稳、轻、准。
今天分享的 Z-Image Nunchaku加速版 V2版, 该版主要面向低配显卡设备用户,支持最低4G显存显卡+16G运行内存设备流畅运行,基于ComfyUI-Nunchaku打包,模型使用的也是Nunchaku最新开源的 4-bit Z-Image-Turbo,独家新增Lora支持,集速度和生成质量于一身,可实现3-5秒快速生成图像,更快更轻巧的AI文生图。
一键包支持ComfyUI和WebUI两种运行模式,启动默认跳转WebUI,WebUI界面简洁,更适合新手小白上手。ComfyUI适合专业用户,可自由定制节点,功能更丰富,操作更自由。
核心特点
高质量逼真图像:生成的图片细节丰富,审美效果好。
中英文文字渲染:能在图片里准确显示复杂的中文和英文文字。
快速推理速度:Nunchaku加速版只需 8 步,更快生成图像。
强大的指令理解:能根据复杂的提示生成符合要求的图像。
图像编辑能力:支持创意性的图像修改和二次创作。
应用领域
创意设计:广告、插画、海报、包装设计。
游戏与影视:角色设定、场景概念图、特效素材。
教育与研究:帮助学习 AI 图像生成原理,支持学术研究。
社交媒体与内容创作:快速生成配图、表情包、视觉素材。
个性化应用:头像定制、虚拟试衣、艺术风格转换。
使用教程:(建议N卡,显存4G起,建议运行内存>16G,支持50系显卡)
整合包包含所需所有节点,下载主程序和模型(ComfyUI文件夹),解压主程序一键包,将ComfyUI文件夹移动到主程序目录下即可,详情参考下方目录结构
WebUI:启动后,自动进入WebUI,输入提示词,设置参数,生成即可。4G显存用户需开启“CPU卸载”选项。
支持Lora支持,将Lora模型放到ComfyUI/models/loras目录下,下拉选择Lora。如不使用Lora,则下拉选择none即可。(自带lora模型强度请设置0.5-0.9)
ComfyUI工作流:
双击启动,浏览器输入 http://127.0.0.1:8188/ 进入页面后,点击左侧的 工作流程,选择对应的工作流,UNET加载器切换自己需要的模型
之后输入提示词,设置参数,最后运行即可。4G显存用户,加载CLIP 节点设备需下拉,切换到CPU。
如不使用Lora,可点击Lora节点,忽略节点即可。
关于模型:包含INT4和FP4两种精度模型,模型文件名以“svdq-int4_r128或svdq-fp4_r128”开头,带有INT4适用于50系以下的显卡,比如RTX4090,RTX3080等;FP4适用于50系显卡,比如RTX5080等。
模型位于网盘ComfyUI\model\diffusion_models目录下,老司机可以根据需要自行下载适合的模型,新手可默认下载所有。
关于Rank,比如模型文件名开头的“svdq-int4_r128”,这里的 r就是rank的缩写,请根据自己的需求选择 (32=快速, 128=平衡, 256=最佳质量-仅INT4),数值越大,推理速度越慢,生成效果越好。
软件目录结构
📂 ComfyUI/
├── 📂 models/
│ ├── 📂 diffusion_models/
│ │ └── svdq-int4_r128-z-image-turbo.safetensors
│ │ └── svdq-fp4_r128-z-image-turbo.safetensors
│ ├── 📂 text_encoders/
│ │ └── qwen_3_4b.safetensors
│ ├── 📂 loras/
│ │ └── asian_woman_zit_v1.safetensors
📂 deepface/
......
下载地址:
夸克网盘:https://pan.quark.cn/s/6264338868ce
百度网盘:
**** 本内容需购买 ****
Nunchaku版的画质是不是会比原版低一些呢? Benny77 发表于 2025-12-30 23:23
Nunchaku版的画质是不是会比原版低一些呢?
是的,量化的精度低了,画质损失在所难免 这个V2和V1的区别是啥? nevets 发表于 2025-12-31 11:30
这个V2和V1的区别是啥?
一个支持lora,支持工作流
另一个不支持 v2 我跑会报错 v1能跑 ,估计是comfyui版本的nunchaku模型加载有问题。 今天试了一下 guff 版本,貌似质量比nunchaku的好一些。生图速度没太大区别。 ampere 发表于 2025-12-31 16:33
v2 我跑会报错 v1能跑 ,估计是comfyui版本的nunchaku模型加载有问题。 今天试了一下 guff 版本,貌似质量 ...
comfyui版好像不支持30系以下的显卡 无言以对 发表于 2025-12-31 16:48
comfyui版好像不支持30系以下的显卡
应该是 我看github上 也有人是3050的 也是一样的报错只能等nunchaku修复了 ampere 发表于 2025-12-31 18:44
应该是 我看github上 也有人是3050的 也是一样的报错只能等nunchaku修复了
报错代码发出来,我看看什么问题 官方的 clip 直接 断开链接;控制台没有报错。 换guff的clip之后报
got prompt
Using pytorch attention in VAE
Using pytorch attention in VAE
VAE load device: cuda:0, offload device: cpu, dtype: torch.bfloat16
gguf qtypes: F32 (145), Q6_K (37), Q4_K (216)
Dequantizing token_embd.weight to prevent runtime OOM.
Requested to load ZImageTEModel_
loaded completely; 95367431640625005117571072.00 MB usable, 2813.50 MB loaded, full load: True
CLIP/text encoder model load device: cpu, offload device: cpu, current: cpu, dtype: torch.float16
Requested to load ZImageTEModel_
FETCH ComfyRegistry Data: 10/117
model weight dtype torch.bfloat16, manual cast: None
model_type FLOW
Requested to load Lumina2
loaded partially; 1880.50 MB usable, 1810.41 MB loaded, 256.98 MB offloaded, 70.09 MB buffer reserved, lowvram patches: 0
0%| | 0/9
!!! Exception during processing !!! CUDA error: an illegal memory access was encountered
Search for `cudaErrorIllegalAddress' in docs.nvidia.com/cuda/cuda-runtime-api/group__CUDART__TYPES.html for more information.
CUDA kernel errors might be asynchronously reported at some other API call, so the stacktrace below might be incorrect.
For debugging consider passing CUDA_LAUNCH_BLOCKING=1
Compile with `TORCH_USE_CUDA_DSA` to enable device-side assertions.
Traceback (most recent call last):
File "E:\AI\ComfyUI\execution.py", line 516, in execute
output_data, output_ui, has_subgraph, has_pending_tasks = await get_output_data(prompt_id, unique_id, obj, input_data_all, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb, v3_data=v3_data)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\execution.py", line 330, in get_output_data
return_values = await _async_map_node_over_list(prompt_id, unique_id, obj, input_data_all, obj.FUNCTION, allow_interrupt=True, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb, v3_data=v3_data)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\execution.py", line 304, in _async_map_node_over_list
await process_inputs(input_dict, i)
File "E:\AI\ComfyUI\execution.py", line 292, in process_inputs
result = f(**inputs)
^^^^^^^^^^^
File "E:\AI\ComfyUI\nodes.py", line 1538, in sample
return common_ksampler(model, seed, steps, cfg, sampler_name, scheduler, positive, negative, latent_image, denoise=denoise)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\nodes.py", line 1505, in common_ksampler
samples = comfy.sample.sample(model, noise, steps, cfg, sampler_name, scheduler, positive, negative, latent_image,
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\comfy\sample.py", line 60, in sample
samples = sampler.sample(noise, positive, negative, cfg=cfg, latent_image=latent_image, start_step=start_step, last_step=last_step, force_full_denoise=force_full_denoise, denoise_mask=noise_mask, sigmas=sigmas, callback=callback, disable_pbar=disable_pbar, seed=seed)
File "E:\AI\ComfyUI\comfy\samplers.py", line 1178, in sample
return sample(self.model, noise, positive, negative, cfg, self.device, sampler, sigmas, self.model_options, latent_image=latent_image, denoise_mask=denoise_mask, callback=callback, disable_pbar=disable_pbar, seed=seed)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\comfy\samplers.py", line 1068, in sample
return cfg_guider.sample(noise, latent_image, sampler, sigmas, denoise_mask, callback, disable_pbar, seed)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\comfy\samplers.py", line 1050, in sample
output = executor.execute(noise, latent_image, sampler, sigmas, denoise_mask, callback, disable_pbar, seed, latent_shapes=latent_shapes)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\comfy\patcher_extension.py", line 112, in execute
return self.original(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\comfy\samplers.py", line 994, in outer_sample
output = self.inner_sample(noise, latent_image, device, sampler, sigmas, denoise_mask, callback, disable_pbar, seed, latent_shapes=latent_shapes)
^^^^^^^^^^
File "E:\AI\ComfyUI\comfy\samplers.py", line 980, in inner_sample
samples = executor.execute(self, sigmas, extra_args, callback, noise, latent_image, denoise_mask, disable_pbar)
^^^^^
File "E:\AI\ComfyUI\comfy\patcher_extension.py", line 112, in execute
return self.original(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\comfy\samplers.py", line 752, in sample
samples = self.sampler_function(model_k, noise, sigmas, extra_args=extra_args, callback=k_callback, disable=disable_pbar, **self.extra_options)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\.venv\Lib\site-packages\torch\utils\_contextlib.py", line 120, in decorate_context
return func(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\comfy\k_diffusion\sampling.py", line 1429, in sample_res_multistep
return res_multistep(model, x, sigmas, extra_args=extra_args, callback=callback, disable=disable, s_noise=s_noise, noise_sampler=noise_sampler, eta=0., cfg_pp=False)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\.venv\Lib\site-packages\torch\utils\_contextlib.py", line 120, in decorate_context
return func(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\comfy\k_diffusion\sampling.py", line 1387, in res_multistep
denoised = model(x, sigmas * s_in, **extra_args)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\comfy\samplers.py", line 401, in __call__
out = self.inner_model(x, sigma, model_options=model_options, seed=seed)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\comfy\samplers.py", line 953, in __call__
return self.outer_predict_noise(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
out = calc_cond_batch(model, conds, x, timestep, model_options)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\comfy\samplers.py", line 206, in calc_cond_batch
return _calc_cond_batch_outer(model, conds, x_in, timestep, model_options)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\comfy\samplers.py", line 214, in _calc_cond_batch_outer
return executor.execute(model, conds, x_in, timestep, model_options)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\comfy\patcher_extension.py", line 112, in execute
return self.original(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\comfy\samplers.py", line 326, in _calc_cond_batch
output = model.apply_model(input_x, timestep_, **c).chunk(batch_chunks)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\comfy\ldm\lumina\model.py", line 295, in forward
clamp_fp16(self.attention(
^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\.venv\Lib\site-packages\torch\nn\modules\module.py", line 1775, in _wrapped_call_impl
return self._call_impl(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\.venv\Lib\site-packages\torch\nn\modules\module.py", line 1786, in _call_impl
return forward_call(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\custom_nodes\ComfyUI-nunchaku\models\zimage.py", line 78, in forward
return super().forward(x, x_mask, freqs_cis, transformer_options)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\comfy\ldm\lumina\model.py", line 114, in forward
xq, xk = apply_rope(xq, xk, freqs_cis)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\comfy\ldm\flux\math.py", line 40, in apply_rope
return apply_rope1(xq, freqs_cis), apply_rope1(xk, freqs_cis)
^^^^^^^^^^^^^^^^^^^^^^^^^^
File "E:\AI\ComfyUI\comfy\ldm\flux\math.py", line 35, in apply_rope1
x_out.addcmul_(freqs_cis[..., 1], x_[..., 1])
torch.AcceleratorError: CUDA error: an illegal memory access was encountered
Search for `cudaErrorIllegalAddress' in docs.nvidia.com/cuda/cuda-runtime-api/group__CUDART__TYPES.html for more information.
CUDA kernel errors might be asynchronously reported at some other API call, so the stacktrace below might be incorrect.
For debugging consider passing CUDA_LAUNCH_BLOCKING=1
Compile with `TORCH_USE_CUDA_DSA` to enable device-side assertions.
页:
[1]
2