一、引言:Stable Diffusion webUI 概述
Stable Diffusion webUI(以 Automatic1111 版本为代表)是目前最主流的本地化 AI 图像生成工具,支持文生图、图生图、局部重绘、姿态控制等全链路创作功能。截至 2025 年 7 月,最新版本为1.10.0,该版本正式支持 SD3 模型、新增多种采样调度器(如 Align Your Steps、KL Optimal)及采样器(DDIM CFG++),并优化了显存占用与生成效率。本教程基于该版本,详细讲解核心功能模块的操作技巧,帮助用户从入门到精通 AI 图像生成。
二、文生图(txt2img)核心操作
2.1 基础界面与工作流程
文生图是 Stable Diffusion 的核心功能,通过文本描述(Prompt)生成图像。在 webUI 首页的txt2img标签页中,主要包含以下区域:
- 模型选择区:顶部下拉菜单选择基础模型(如 SD3、SDXL、SD1.5),需注意 SD3 目前仅支持 Euler 采样器;
- 提示词输入区:分为正向提示词(描述期望内容)和反向提示词(排除不期望内容);
- 参数设置区:控制采样器、步数、分辨率等生成细节;
- 生成结果区:显示输出图像及生成信息(种子、参数等)。
基础工作流程:选择模型→输入提示词→配置参数→点击 “Generate” 生成图像。
2.2 关键参数详解
2.2.1 采样器与采样步数
- 采样器(Sampling method):决定去噪算法,不同模型适配性不同:
- SD1.5/SDXL:推荐 DPM++ 2M Karras(平衡速度与质量)、Euler a(多样性高);
- SD3:仅支持 Euler 采样器(官方限制);
- 快速出图:LCM 采样器(需搭配 LCM 模型,4-8 步即可生成清晰图像)。
- 采样步数(Sampling steps):控制去噪迭代次数,推荐值20-30 步(步数过高会增加生成时间,且质量提升有限)。
2.2.2 CFG Scale(提示词相关性)
控制模型对提示词的遵循程度,数值越高越严格遵循,但可能导致画面生硬:
- SD1.5/SDXL:推荐7-12;
- SD3:推荐4-5(低 CFG 可减少畸形问题);
- 低指导尺度优化:1.10.0 版本新增 “跳过 CFG” 功能,可在采样早期步骤关闭 CFG,提升多样性与图像质量(设置路径:Settings→Optimizations→Enable skip CFG)。
2.2.3 分辨率与种子(Seed)
- 分辨率(Width/Height):需匹配模型训练分辨率(如 SD1.5 默认 512x512,SDXL 推荐 1024x1024),过高会导致显存不足;
- 种子(Seed):控制初始噪声模式,固定种子可复现图像结构(-1 为随机,点击生成结果下方种子值可快速复制)。
三、基础参数与高级设置
3.1 核心参数对照表
参数 | 作用 | 推荐值范围 | 注意事项 |
---|---|---|---|
Sampling steps | 去噪迭代次数 | 20-30 步 | 步数 × 批次过大会增加显存占用 |
CFG Scale | 提示词相关性 | SD1.5/SDXL:7-12; SD3:4-5 |
过高易导致画面扭曲、色彩失真 |
Denoise strength | 去噪强度(图生图专用) | 0.2-0.8(局部重绘) | 0.2-0.4 微调,0.6-0.8 大幅修改 |
Seed | 初始噪声种子 | -1(随机)或固定数值 | 相同种子 + 提示词可复现图像结构 |
Batch size | 每批生成图像数量 | 1-4(根据显存调整) | 8G 显存建议≤2,避免 OOM 错误 |
3.2 性能优化设置
- 显存优化:1.8.0 版本支持FP8 精度(设置路径:Settings→Stable Diffusion→Precision→fp8),显存占用降低 30%,画质无明显损失;
- 快速生成:启用 “Low VRAM” 模式(适合 8G 以下显存),或使用 LCM 采样器 + LCM 模型(如 Dreamshaper-V7),4 步即可生成 768x768 图像;
- 高清修复(Hires.fix):先生成低分辨率图像(如 512x768),再通过该功能放大(推荐 R-ESRGAN 4x + 算法),平衡质量与速度。
四、图生图(img2img)与局部重绘(Inpainting)
4.1 图生图基础操作
图生图基于现有图像生成新内容,核心参数为Denoise strength(重绘幅度):
- 低 Denoise(0.2-0.4):保留原图结构,适合风格微调(如将照片转为油画风格);
- 高 Denoise(0.6-0.8):大幅修改原图,适合创意生成(如将猫的图像改为狗);
- Resize 模式:推荐 “Crop and resize”(保持比例裁剪),避免图像拉伸。
4.2 局部重绘(Inpainting)全攻略
4.2.1 基础设置
- 蒙版(Mask):用画笔涂抹需修改区域(快捷键:按住 Ctrl 调整画笔大小);
- 蒙版模糊(Mask blur):控制蒙版边缘过渡,推荐4-20 像素(值越高融合越自然,如换脸时设为 40 可修复下巴接缝);
- 重绘区域:选择 “全图”(避免过渡生硬)或 “仅蒙版”(局部精细修改)。
4.2.2 实战技巧
- 换主体 / 背景:
- 换主体:蒙版涂抹目标区域,提示词输入新主体(如 “a cat”),蒙版模式选 “重绘蒙版内容”,蒙版模糊设5-10(避免保留原轮廓);
- 换背景:蒙版涂抹主体,提示词输入新背景(如 “forest”),蒙版模式选 “重绘非蒙版内容”;
- 无中生有:蒙版区域选择 “潜变量噪声”,Denoise 设 0.8-1.0,AI 会完全重新生成蒙版区域(如在空白处生成新物体);
- 柔和重绘:1.8.0 版本新增功能,在图生图设置中勾选 “Soft inpainting”,减少重绘区域与原图的接缝痕迹。
五、关键词(Prompt)精准控制技巧
5.1 提示词结构与顺序
推荐顺序:质量词→风格词→主体描述→细节补充→环境 / 光照
- 质量词:确保画面清晰度,如 “masterpiece, best quality, 8k, ultra-detailed”;
- 风格词:指定艺术风格,如 “anime style, Ghibli, oil painting”;
- 主体描述:明确人物 / 物体特征,如 “1girl, white hair, school uniform, smile”;
- 环境 / 光照:补充场景细节,如 “cinematic lighting, sunset, in a classroom”。
示例:
masterpiece, best quality, 8k, anime style, 1girl, white hair, school uniform, smile, cinematic lighting, sunset, in a classroom
5.2 权重控制语法
通过符号调整关键词优先级,默认权重为 1:
- 提升权重:
- 小括号
()
:每层提升 1.1 倍(如(white hair)
→1.1 倍,((white hair))
→1.21 倍); - 冒号语法
(词:权重值)
:直接指定权重(如(white hair:1.5)
→1.5 倍,推荐使用,更直观);
- 小括号
- 降低权重:中括号
[]
:每层降低至 0.9 倍(如[background:0.5]
→降低背景权重); - 顺序影响:靠前的关键词权重更高,重要内容需优先排列(如质量词放在最前)。
5.3 反向提示词(Negative Prompt)
用于排除低质量元素,常见内容:
NSFW, low quality, blurry, bad anatomy, extra limbs, missing fingers, bad hands
技巧:根据生成问题补充,如手部畸形可添加 “deformed hands”,面部模糊添加 “blurry face”。
六、姿态控制:ControlNet OpenPose 全流程
6.1 插件安装与模型准备
- 安装 ControlNet:通过 webUI 扩展界面搜索 “sd-webui-controlnet” 安装,重启后在生成界面底部显示 ControlNet 面板;
- 下载 OpenPose 模型:预处理器选择 “openpose”,模型选择 “control_v11p_sd15_openpose”(首次使用会自动下载,或手动放入
extensions/sd-webui-controlnet/models
目录); - 辅助插件:安装 “OpenPose Editor”(用于手动调整骨架),路径:扩展→从 URL 安装→输入
https://github.com/huchenlei/sd-webui-openpose-editor
。
6.2 基础操作步骤
- 上传参考图:在 ControlNet 面板勾选 “Enable”,上传含有人物姿势的图片(推荐真人照片,动漫图识别精度较低);
- 生成骨架:预处理器选 “openpose”,模型选 “openpose”,点击 “Preview annotator result” 生成骨架图(检查关节点是否准确);
- 调整参数:
- Control Weight:控制姿态影响强度,推荐0.8-1.2(过高易导致姿态僵硬);
- Guidance End:设置 ControlNet 停止引导的步数比例,推荐0.8(后期让模型自由优化细节);
- 生成图像:输入提示词(如 “1girl, hanfu, cherry blossoms”),点击 “Generate” 即可生成符合姿态的图像。
6.3 进阶技巧
- 手部精细控制:
- 保存 OpenPose 生成的骨架图,用 “Depth Map Editor” 插件编辑手部关节;
- 在第二个 ControlNet 单元上传手部深度图,预处理器选 “none”,模型选 “depth”,解决手部畸形问题;
- 多人物姿态:使用 “OpenPose Editor” 手动添加多个骨架节点,或上传含多人的参考图,生成多人协作场景;
- 姿态库使用:从 C 站(Civitai)下载 Pose 模型(JSON 格式),通过 OpenPose Editor 上传,快速复用预设姿态。
七、常见问题与解决方案
7.1 生成质量问题
- 画面模糊:检查 CFG 是否过低(<5)或采样步数不足(<20),尝试提升至推荐值;
- 人物畸形:SD3 模型需降低 CFG 至 4-5,启用 “跳过 CFG” 功能,或使用 ControlNet OpenPose 约束姿态;
- 显存不足:降低分辨率(如 512x512)、减少 Batch size(设为 1),启用 FP8 精度或 “Low VRAM” 模式。
7.2 操作效率优化
- 批量生成:在 “Batch count” 设置生成批次(如 5),配合 “Batch size”=2,一次生成 10 张图像;
- 参数复用:点击生成结果下方的 “Save settings” 保存当前参数,下次直接加载;
- 模型快速切换:在 “Models” 标签页通过文件夹分类管理模型,支持搜索与排序(1.9.0 版本新增目录视图切换)。
结语
Stable Diffusion webUI 的强大之处在于其高度可定制性与丰富的扩展生态。通过掌握文生图 / 图生图参数、关键词权重控制、ControlNet 姿态调整等技巧,结合最新版本功能(如 SD3 支持、跳过 CFG、柔和重绘),可大幅提升创作效率与图像质量。建议通过实际案例反复调试参数,逐步积累对模型行为的理解,最终实现 “所想即所得” 的 AI 创作体验。