一、说明
在网上转了一圈,发现确实akiaaa大神的整合包不错,看看这界面就比我前面的流弊多了,后面我们就要把这个界面一步一步干出来
二、环境准备
这里和前面的一样
#创建环境
conda create -n sd python=3.10
#激活
conda activate sd
#安装依赖
apt-get update
apt install build-essential
apt install libgl1
apt-get install libgoogle-perftools4 libtcmalloc-minimal4 -y
apt-get install bc
apt-get install iproute2 #ip addr
#调整启动文件参数 webui-user.sh
nano webui-user.sh
export COMMANDLINE_ARGS="--listen --enable-insecure-extension-access --xformers --port=7860 --precision full --no-half"
# 下载源码,现在不需要代理也快得很
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
# 将模型anything-v5.safetensors上传,看下面图的位置
#修改launch_utils.py
def prepare_environment():
torch_index_url = os.environ.get('TORCH_INDEX_URL', "https://mirrors.aliyun.com/pytorch-wheels/cu121")
torch_command = os.environ.get('TORCH_COMMAND', f"pip install torch==2.1.2 torchvision==0.16.2 -f {torch_index_url}")
#正常访问huggingface.co 网站啦。
pip install -U huggingface_hub -i https://pypi.tuna.tsinghua.edu.cn/simple
# 打开家目录下文件: ~/.bashrc, 在文件末尾插入一行:
export HF_ENDPOINT=https://hf-mirror.com
# 然后关闭 ~/.bashrc 文件, 在命令行中运行如下命令使得上述配置生效:
source ~/.bashrc
#运行
bash webui.sh -f
看了这个图,看到带目录也能识别模型
正在运行过程中
看到标记的地址就知道运行成功了,为什么这次我加了端口号,就是因为上次估计是端口冲突了,导致端口变了,大家知道我们这个是需要透传才能链接的,端口变了,透传就不行了,害的我查了个把小时问题,这里提醒大家cloudstudio 内网ip地址会变的
三、初始界面样子
初始界面很简单,我们也看到了我们加入的模型,有目录喔
生成一个girl,下图,所以一切正常
后面我们会一步一步来,其实我把akiaaa大神 Stable Diffusion整合包 sd-webui-aki-v4.9.1里的文件与秋叶stable-diffusion-webui包进行了对比,核心代码基本没啥差别,我把一些包,设置什么的文件全部对比过去,结果界面出来了,还是有些小问题所以我准备一步一步进行移植,这样下次就可以直接照搬了,当然,这里是没有大神的维护界面的
四、插件与设置
中文插件stable-diffusion-webui-localization-zh_Hans
搜索zh_Hans
上面点击install,安装完成后会变为installed
然后执行下图重启ui
现在还没变为中文我们设置一下,看下图 ,按12345完成
变成中文了
a1111-sd-webui-tagcomplete
a1111-sd-webui-tagcomplete
是一个为 AUTOMATIC1111 的 Stable Diffusion web UI 提供的 Booru 风格标签自动补全插件。这个插件可以帮助用户在输入标签时自动补全,提高工作效率。
搜索 Booru tag
过程和上面一样
找到如图点击安装,正常安装完成会变为已安装
和我们搜索栏一样,就是出来相关的补全提示词 ,这样就安装完成了
- After Detailer
After Detailer插件的主界面设计简洁直观,为用户提供了便捷的操作体验。该插件具备强大的多通道处理能力,能够同时在一张照片中对脸部、手部等多个区域进行精细修复,极大地提升了图片处理的效率和灵活性
搜索adetailer
安装,回到已安装页面,再重启ui
这时看后台,正在下载所需模型
前面下载的模型,在这里选择,具体就不展开了,还没研究 ,证明装ok了
在生成过程中间可以看到有过程,观察一下,就是yolo的哪个框框
multidiffusion-upscaler-for-automatic1111
Multidiffusion Upscaler for Automatic1111 是一个用于 Stable Diffusion WebUI 的扩展插件,旨在通过分块扩散(Tiled Diffusion)和 VAE 优化技术,帮助用户在有限的 VRAM(≤6GB)下生成或放大大型图像(≥2K)。该项目由 pkuliyi2015 开发,基于 CC BY-NC-SA 4.0 许可证发布,允许自由获取、使用、修改和重分发,但禁止用于商业贩售。
这个也是一个防止爆显存的插件,低显存电脑必备插件。
主要功能
Tiled VAE: 分块 VAE 方法
Tiled Diffusion: 用于超大型图像的 txt2img 生成和 img2img 放大
区域提示控制: 支持区域性的提示控制
Tiled Noise Inversion: 分块噪声反演方法
高级 ControlNet 支持: 支持 ControlNet 的高级功能
StableSR 支持: 支持 StableSR 功能
SDXL 支持: 支持 SDXL 模型
Demofusion 支持: 支持 Demofusion 技术
按照前面安装方式搜索不到,所以用网页地址安装
点击安装,看下图知道安装完成,还要重启
下面图上一步与以前相同
出现下面3个标签就说明安装成功了,过程中提示git clone下载错误,直接再重启一下就可以了,估计又是github网速问题
安装一个插件,可以试试
sd-dynamic-thresholding
支持使用更高的 CFG 比例而不会出现颜色和画面崩坏问题。我们知道CFG是用来控制提示词相关性的,这个值越高,相关性也就越高,但是太高的CFG值会导致画面崩坏,这个插件就是来解决这个问题的
搜索thresholding
安装,重启
sd-extension-system-info
可以非常方便的在一个页面中查看系统运行情况和版本信息。
搜索system
安装,重启ui
sd-webui-animatediff
sd-webui-animatediff是一个用于将AnimateDiff集成到AUTOMATIC1111 Stable Diffusion WebUI中的扩展项目。其主要目标是提供一个易于使用的AI视频工具包,使用户能够以生成图像的方式生成GIF动画。通过在运行时将运动模块插入UNet,用户无需重新加载模型权重即可生成动画1。
搜索animatediff
安装重启ui
sd-webui-controlnet
『ControlNet』是一个不可忽视的关键组件。『ControlNet』是一个用于增强图像生成过程可控性的强大工具,允许用户通过提供特定的控制图像来精确指导生成结果
搜索sd-webui-controlnet
安装重启ui
注意这里还要添加模型, 模型在akiaaa大神哔哩哔哩视频下有下载地址
待续。。。。。。。