×
注意!页面内容来自https://www.zhihu.com/tardis/bd/art/16474690938,本站不储存任何内容,为了更好的阅读体验进行在线解析,若有广告出现,请及时反馈。若您觉得侵犯了您的利益,请通知我们进行删除,然后访问 原网页
Flux GGUF 版本 是 Flux 模型的一种优化版本,专门为低显存设备设计,能够在显存有限的情况下运行高质量的 AI 图像生成任务。以下是对 Flux GGUF 版本的详细解释:
GGUF 是 GPT-Generated Unified Format 的缩写,是一种高效的模型存储和交换格式。它通过量化技术(如 4 位、6 位、8 位等)压缩模型权重,从而减少显存占用,同时保持较高的生成质量。
精度(如从 32 位浮点数压缩到 4 位),降低显存需求,但可能会略微影响生成质量。6GB 显存)上运行,适合没有高端显卡的用户。Flux 模型的原始版本(如 Flux.1 Dev 和 Schnell)对显存要求较高,通常需要 16GB 或更多的显存才能流畅运行。这对于大多数普通用户来说是一个门槛。GGUF 版本的出现解决了这一问题,使得 Flux 可以在低显存设备上运行。
16GB 以上的显存,文件大小通常为 23.8GB。6GB 显存即可运行。GGUF 版本有多种量化级别,用户可以根据自己的显存大小选择合适的版本:
| 量化级别 | 显存需求 | 生成质量 |
|---|---|---|
| Q2/Q3(2/3 位) | 6GB | 较低 |
| Q4(4 位) | 8GB | 中等 |
| Q5(5 位) | 10GB | 较高 |
| Q8(8 位) | 16GB+ | 接近原始版本 |
ComfyUI使用:
深蓝代码:AI作图-ComfyUI入门保姆级教程,附一键启动包使用 Flux GGUF 版本需要以下步骤:
ComfyUI-GGUF 插件。git clone https://github.com/city96/ComfyUI-GGUF.gitComfyUI/models/unet 目录下。模型:
huggingface下载国内镜像下载Load Diffusion Model 节点替换为 Unet Loader (GGUF) 节点。DualClip Loader GGUF 节点,选择 Flux 的 CLIP 和 T5-XXL 模型。Flux GGUF 版本是 Flux 模型的一种优化形式,通过量化技术大幅降低了显存需求,使得更多用户能够在低显存设备上体验 Flux 的高质量图像生成能力。尽管生成质量略有下降,但 GGUF 版本仍然是一个非常实用的选择,尤其是在资源有限的情况下。