官方的 clip 直接 断开链接;控制台没有报错。 换guff的clip之后报
got prompt
Using pytorch attention in ...
看报错像是显存不足造成的。comfyui可以使用 lowvram 模式启动 无言以对 发表于 2026-1-1 12:06
看报错像是显存不足造成的。comfyui可以使用 lowvram 模式启动
python main.py --lowvram --disable-cuda-malloc 用这个命令启动的 ampere 发表于 2026-1-1 12:16
python main.py --lowvram --disable-cuda-malloc 用这个命令启动的
--disable-cuda-malloc 去掉试试 无言以对 发表于 2026-1-1 12:06
看报错像是显存不足造成的。comfyui可以使用 lowvram 模式启动
理论上fp8模型比nunchaku更大 fp8模型可以正常跑 佬牛逼!
页:
1
[2]