×

注意!页面内容来自https://www.zhihu.com/tardis/bd/art/16474690938,本站不储存任何内容,为了更好的阅读体验进行在线解析,若有广告出现,请及时反馈。若您觉得侵犯了您的利益,请通知我们进行删除,然后访问 原网页

12 赞同
26 收藏

概述

Flux GGUF 版本 是 Flux 模型的一种优化版本,专门为低显存设备设计,能够在显存有限的情况下运行高质量的 AI 图像生成任务。以下是对 Flux GGUF 版本的详细解释:

1. 什么是 GGUF?

GGUF 是 GPT-Generated Unified Format 的缩写,是一种高效的模型存储和交换格式。它通过量化技术(如 4 位6 位8 位等)压缩模型权重,从而减少显存占用,同时保持较高的生成质量。

  • 量化原理:量化通过减少模型权重的精度(如从 32 位浮点数压缩到 4 位),降低显存需求,但可能会略微影响生成质量。
  • 优势:GGUF 版本可以在低显存设备(如 6GB 显存)上运行,适合没有高端显卡的用户。

2. 为什么 Flux 需要 GGUF 版本?

Flux 模型的原始版本(如 Flux.1 Dev 和 Schnell)对显存要求较高,通常需要 16GB 或更多的显存才能流畅运行。这对于大多数普通用户来说是一个门槛。GGUF 版本的出现解决了这一问题,使得 Flux 可以在低显存设备上运行。

  • 原始版本显存需求:Flux.1 Dev 和 Schnell 的原始版本需要 16GB 以上的显存,文件大小通常为 23.8GB
  • GGUF 版本显存需求:GGUF 版本通过量化技术,显存需求大幅降低,最低仅需 6GB 显存即可运行。

3. GGUF 版本的量化级别

GGUF 版本有多种量化级别,用户可以根据自己的显存大小选择合适的版本:

量化级别显存需求生成质量
Q2/Q3(2/3 位)6GB较低
Q4(4 位)8GB中等
Q5(5 位)10GB较高
Q8(8 位)16GB+接近原始版本
  • Q4 和 Q5:适合大多数用户,显存需求适中,生成质量较好。
  • Q8:适合高端显卡用户,生成质量接近原始版本。

在 ComfyUI 中使用 Flux GGUF 版本?

ComfyUI使用:

深蓝代码:AI作图-ComfyUI入门保姆级教程,附一键启动包

使用 Flux GGUF 版本需要以下步骤:

步骤 1:安装 ComfyUI-GGUF 插件

  • 通过 ComfyUI 管理器搜索并安装 ComfyUI-GGUF 插件。
  • 或者通过 Git 克隆插件:
git clone https://github.com/city96/ComfyUI-GGUF.git

步骤 2:下载 GGUF 模型

  • 从 Hugging Face 下载 Flux GGUF 模型,并将其放置在 ComfyUI/models/unet 目录下。
  • 例如:

模型:

huggingface下载国内镜像下载


    • Flux.1 Schnell GGUF 模型:
huggingface下载city96/FLUX.1-schnell-gguf at main



步骤 3:配置工作流

  • 在 ComfyUI 中,将原始的 Load Diffusion Model 节点替换为 Unet Loader (GGUF) 节点。
  • 设置 DualClip Loader GGUF 节点,选择 Flux 的 CLIP 和 T5-XXL 模型。

步骤 4:运行生成

  • 输入提示词,设置采样器(如 Euler)和 CFG(如 1.0),然后点击生成。

GGUF 版本的优势与局限

优势

  • 低显存需求:最低仅需 6GB 显存,适合老显卡或低端设备。
  • 快速生成:量化后的模型推理速度更快,适合需要快速出图的场景。
  • 高质量生成:尽管是量化版本,但 Flux GGUF 的生成质量仍然非常出色,尤其是在 8 步或更多步数的情况下。

局限

  • 生成质量略低:与原始版本相比,GGUF 版本的生成质量略有下降,尤其是在低量化级别(如 Q2 或 Q4)时。
  • 不支持负提示:Flux GGUF 版本不支持负提示功能1。

总结

Flux GGUF 版本是 Flux 模型的一种优化形式,通过量化技术大幅降低了显存需求,使得更多用户能够在低显存设备上体验 Flux 的高质量图像生成能力。尽管生成质量略有下降,但 GGUF 版本仍然是一个非常实用的选择,尤其是在资源有限的情况下。

编辑于 2025-01-05 · 著作权归作者所有