【AI绘画】Stable Diffusion webUI 常用功能使用技巧

发布于:2025-08-13 ⋅ 阅读:(13) ⋅ 点赞:(0)

一、引言:Stable Diffusion webUI 概述

Stable Diffusion webUI(以 Automatic1111 版本为代表)是目前最主流的本地化 AI 图像生成工具,支持文生图、图生图、局部重绘、姿态控制等全链路创作功能。截至 2025 年 7 月,最新版本为1.10.0,该版本正式支持 SD3 模型、新增多种采样调度器(如 Align Your Steps、KL Optimal)及采样器(DDIM CFG++),并优化了显存占用与生成效率。本教程基于该版本,详细讲解核心功能模块的操作技巧,帮助用户从入门到精通 AI 图像生成。

二、文生图(txt2img)核心操作

2.1 基础界面与工作流程

文生图是 Stable Diffusion 的核心功能,通过文本描述(Prompt)生成图像。在 webUI 首页的txt2img标签页中,主要包含以下区域:

  • 模型选择区:顶部下拉菜单选择基础模型(如 SD3、SDXL、SD1.5),需注意 SD3 目前仅支持 Euler 采样器;
  • 提示词输入区:分为正向提示词(描述期望内容)和反向提示词(排除不期望内容);
  • 参数设置区:控制采样器、步数、分辨率等生成细节;
  • 生成结果区:显示输出图像及生成信息(种子、参数等)。

基础工作流程:选择模型→输入提示词→配置参数→点击 “Generate” 生成图像。

2.2 关键参数详解

2.2.1 采样器与采样步数

  • 采样器(Sampling method):决定去噪算法,不同模型适配性不同:
    • SD1.5/SDXL:推荐 DPM++ 2M Karras(平衡速度与质量)、Euler a(多样性高);
    • SD3:仅支持 Euler 采样器(官方限制);
    • 快速出图:LCM 采样器(需搭配 LCM 模型,4-8 步即可生成清晰图像)。
  • 采样步数(Sampling steps):控制去噪迭代次数,推荐值20-30 步(步数过高会增加生成时间,且质量提升有限)。

2.2.2 CFG Scale(提示词相关性)

控制模型对提示词的遵循程度,数值越高越严格遵循,但可能导致画面生硬:

  • SD1.5/SDXL:推荐7-12
  • SD3:推荐4-5(低 CFG 可减少畸形问题);
  • 低指导尺度优化:1.10.0 版本新增 “跳过 CFG” 功能,可在采样早期步骤关闭 CFG,提升多样性与图像质量(设置路径:Settings→Optimizations→Enable skip CFG)。

2.2.3 分辨率与种子(Seed)

  • 分辨率(Width/Height):需匹配模型训练分辨率(如 SD1.5 默认 512x512,SDXL 推荐 1024x1024),过高会导致显存不足;
  • 种子(Seed):控制初始噪声模式,固定种子可复现图像结构(-1 为随机,点击生成结果下方种子值可快速复制)。

三、基础参数与高级设置

3.1 核心参数对照表

参数 作用 推荐值范围 注意事项
Sampling steps 去噪迭代次数 20-30 步 步数 × 批次过大会增加显存占用
CFG Scale 提示词相关性

SD1.5/SDXL:7-12;

SD3:4-5

过高易导致画面扭曲、色彩失真
Denoise strength 去噪强度(图生图专用) 0.2-0.8(局部重绘) 0.2-0.4 微调,0.6-0.8 大幅修改
Seed 初始噪声种子 -1(随机)或固定数值 相同种子 + 提示词可复现图像结构
Batch size 每批生成图像数量 1-4(根据显存调整) 8G 显存建议≤2,避免 OOM 错误

3.2 性能优化设置

  • 显存优化:1.8.0 版本支持FP8 精度(设置路径:Settings→Stable Diffusion→Precision→fp8),显存占用降低 30%,画质无明显损失;
  • 快速生成:启用 “Low VRAM” 模式(适合 8G 以下显存),或使用 LCM 采样器 + LCM 模型(如 Dreamshaper-V7),4 步即可生成 768x768 图像;
  • 高清修复(Hires.fix):先生成低分辨率图像(如 512x768),再通过该功能放大(推荐 R-ESRGAN 4x + 算法),平衡质量与速度。

四、图生图(img2img)与局部重绘(Inpainting)

4.1 图生图基础操作

图生图基于现有图像生成新内容,核心参数为Denoise strength(重绘幅度):

  • 低 Denoise(0.2-0.4):保留原图结构,适合风格微调(如将照片转为油画风格);
  • 高 Denoise(0.6-0.8):大幅修改原图,适合创意生成(如将猫的图像改为狗);
  • Resize 模式:推荐 “Crop and resize”(保持比例裁剪),避免图像拉伸。

4.2 局部重绘(Inpainting)全攻略

4.2.1 基础设置

  • 蒙版(Mask):用画笔涂抹需修改区域(快捷键:按住 Ctrl 调整画笔大小);
  • 蒙版模糊(Mask blur):控制蒙版边缘过渡,推荐4-20 像素(值越高融合越自然,如换脸时设为 40 可修复下巴接缝);
  • 重绘区域:选择 “全图”(避免过渡生硬)或 “仅蒙版”(局部精细修改)。

4.2.2 实战技巧

  • 换主体 / 背景
    • 换主体:蒙版涂抹目标区域,提示词输入新主体(如 “a cat”),蒙版模式选 “重绘蒙版内容”,蒙版模糊设5-10(避免保留原轮廓);
    • 换背景:蒙版涂抹主体,提示词输入新背景(如 “forest”),蒙版模式选 “重绘非蒙版内容”;
  • 无中生有:蒙版区域选择 “潜变量噪声”,Denoise 设 0.8-1.0,AI 会完全重新生成蒙版区域(如在空白处生成新物体);
  • 柔和重绘:1.8.0 版本新增功能,在图生图设置中勾选 “Soft inpainting”,减少重绘区域与原图的接缝痕迹。

五、关键词(Prompt)精准控制技巧

5.1 提示词结构与顺序

推荐顺序:质量词→风格词→主体描述→细节补充→环境 / 光照

  • 质量词:确保画面清晰度,如 “masterpiece, best quality, 8k, ultra-detailed”;
  • 风格词:指定艺术风格,如 “anime style, Ghibli, oil painting”;
  • 主体描述:明确人物 / 物体特征,如 “1girl, white hair, school uniform, smile”;
  • 环境 / 光照:补充场景细节,如 “cinematic lighting, sunset, in a classroom”。

示例
masterpiece, best quality, 8k, anime style, 1girl, white hair, school uniform, smile, cinematic lighting, sunset, in a classroom

5.2 权重控制语法

通过符号调整关键词优先级,默认权重为 1:

  • 提升权重
    • 小括号():每层提升 1.1 倍(如(white hair)→1.1 倍,((white hair))→1.21 倍);
    • 冒号语法(词:权重值):直接指定权重(如(white hair:1.5)→1.5 倍,推荐使用,更直观);
  • 降低权重:中括号[]:每层降低至 0.9 倍(如[background:0.5]→降低背景权重);
  • 顺序影响:靠前的关键词权重更高,重要内容需优先排列(如质量词放在最前)。

5.3 反向提示词(Negative Prompt)

用于排除低质量元素,常见内容:
NSFW, low quality, blurry, bad anatomy, extra limbs, missing fingers, bad hands
技巧:根据生成问题补充,如手部畸形可添加 “deformed hands”,面部模糊添加 “blurry face”。

六、姿态控制:ControlNet OpenPose 全流程

6.1 插件安装与模型准备

  • 安装 ControlNet:通过 webUI 扩展界面搜索 “sd-webui-controlnet” 安装,重启后在生成界面底部显示 ControlNet 面板;
  • 下载 OpenPose 模型:预处理器选择 “openpose”,模型选择 “control_v11p_sd15_openpose”(首次使用会自动下载,或手动放入extensions/sd-webui-controlnet/models目录);
  • 辅助插件:安装 “OpenPose Editor”(用于手动调整骨架),路径:扩展→从 URL 安装→输入https://github.com/huchenlei/sd-webui-openpose-editor

6.2 基础操作步骤

  1. 上传参考图:在 ControlNet 面板勾选 “Enable”,上传含有人物姿势的图片(推荐真人照片,动漫图识别精度较低);
  2. 生成骨架:预处理器选 “openpose”,模型选 “openpose”,点击 “Preview annotator result” 生成骨架图(检查关节点是否准确);
  3. 调整参数
    • Control Weight:控制姿态影响强度,推荐0.8-1.2(过高易导致姿态僵硬);
    • Guidance End:设置 ControlNet 停止引导的步数比例,推荐0.8(后期让模型自由优化细节);
  4. 生成图像:输入提示词(如 “1girl, hanfu, cherry blossoms”),点击 “Generate” 即可生成符合姿态的图像。

6.3 进阶技巧

  • 手部精细控制
    1. 保存 OpenPose 生成的骨架图,用 “Depth Map Editor” 插件编辑手部关节;
    2. 在第二个 ControlNet 单元上传手部深度图,预处理器选 “none”,模型选 “depth”,解决手部畸形问题;
  • 多人物姿态:使用 “OpenPose Editor” 手动添加多个骨架节点,或上传含多人的参考图,生成多人协作场景;
  • 姿态库使用:从 C 站(Civitai)下载 Pose 模型(JSON 格式),通过 OpenPose Editor 上传,快速复用预设姿态。

七、常见问题与解决方案

7.1 生成质量问题

  • 画面模糊:检查 CFG 是否过低(<5)或采样步数不足(<20),尝试提升至推荐值;
  • 人物畸形:SD3 模型需降低 CFG 至 4-5,启用 “跳过 CFG” 功能,或使用 ControlNet OpenPose 约束姿态;
  • 显存不足:降低分辨率(如 512x512)、减少 Batch size(设为 1),启用 FP8 精度或 “Low VRAM” 模式。

7.2 操作效率优化

  • 批量生成:在 “Batch count” 设置生成批次(如 5),配合 “Batch size”=2,一次生成 10 张图像;
  • 参数复用:点击生成结果下方的 “Save settings” 保存当前参数,下次直接加载;
  • 模型快速切换:在 “Models” 标签页通过文件夹分类管理模型,支持搜索与排序(1.9.0 版本新增目录视图切换)。

结语

Stable Diffusion webUI 的强大之处在于其高度可定制性与丰富的扩展生态。通过掌握文生图 / 图生图参数、关键词权重控制、ControlNet 姿态调整等技巧,结合最新版本功能(如 SD3 支持、跳过 CFG、柔和重绘),可大幅提升创作效率与图像质量。建议通过实际案例反复调试参数,逐步积累对模型行为的理解,最终实现 “所想即所得” 的 AI 创作体验。

 

 


网站公告

今日签到

点亮在社区的每一天
去签到