# FLUX.1 量化模型下载指南

## 📦 推荐下载:GGUF 量化版本

### 方案 1:使用下载脚本(推荐)

1. 在 Windows 上双击运行 `download_flux_gguf.bat`
2. 脚本会自动安装依赖并下载模型
3. 下载完成后模型位于 `ComfyUI\models\checkpoints\`

### 方案 2:手动下载

**步骤 1:安装 huggingface-cli**
```powershell
pip install huggingface_hub
```

**步骤 2:下载模型**

| 量化版本 | 大小 | 命令 |
|---------|------|------|
| Q8_0 (推荐) | ~12GB | `huggingface-cli download city96/FLUX.1-dev-gguf flux1-dev-Q8_0.gguf --local-dir "ComfyUI\models\checkpoints"` |
| Q4_K_M (最小) | ~6GB | `huggingface-cli download city96/FLUX.1-dev-gguf flux1-dev-Q4_K_M.gguf --local-dir "ComfyUI\models\checkpoints"` |
| Q5_K_M (平衡) | ~8GB | `huggingface-cli download city96/FLUX.1-dev-gguf flux1-dev-Q5_K_M.gguf --local-dir "ComfyUI\models\checkpoints"` |

**步骤 3:安装 GGUF 支持节点**
1. 打开 ComfyUI
2. 点击 `ComfyUI Manager`
3. 点击 `Custom Nodes Manager`
4. 搜索 `GGUF`
5. 安装 `ComfyUI-GGUF` 节点
6. 重启 ComfyUI

---

## 🌐 方案 3:浏览器直接下载

**HuggingFace 下载链接:**
- https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main

**推荐文件:**
- `flux1-dev-Q8_0.gguf` (12GB) - 质量最好
- `flux1-dev-Q5_K_M.gguf` (8GB) - 平衡选择
- `flux1-dev-Q4_K_M.gguf` (6GB) - 最小体积

下载后放入 `ComfyUI\models\checkpoints\` 目录

---

## ⚙️ 使用 GGUF 模型的工作流

1. 加载 `CheckpointLoaderSimple` 节点
2. 选择下载的 `.gguf` 文件
3. 确保已安装 GGUF 支持节点
4. 运行工作流

---

## 📊 量化版本对比

| 版本 | 大小 | 质量 | 速度 | 推荐用途 |
|------|------|------|------|---------|
| Q8_0 | 12GB | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | 高质量出图 |
| Q5_K_M | 8GB | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | 日常使用 |
| Q4_K_M | 6GB | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | 快速测试 |

---

## ⚠️ 注意事项

1. **磁盘空间**:确保有足够空间(建议预留 20GB)
2. **内存要求**:GGUF 模型需要 16GB+ 系统内存
3. **GPU 显存**:RTX 4060 Ti (16GB) 可以运行 Q8_0 版本
4. **节点依赖**:必须安装 ComfyUI-GGUF 节点

---

## 🔗 相关资源

- [FLUX.1-dev-gguf 主页](https://huggingface.co/city96/FLUX.1-dev-gguf)
- [ComfyUI-GGUF 节点](https://github.com/city96/ComfyUI-GGUF)
- [官方 FLUX.1](https://huggingface.co/black-forest-labs/FLUX.1-dev)