Stable Diffusion web UI
使用 Gradio 库实现的 Stable Diffusion 网页界面。
AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI

功能
- 原始 txt2img 和 img2img 模式
- 一键安装并运行脚本(但你仍然必须安装 Python 和 git)
- 扩展绘画
- 局部绘画
- 色彩草图
- 提示矩阵
- 稳定扩散放大
- 注意,指定模型应更关注的文本部分
- 一个穿
((燕尾服))
的人 – 将更关注燕尾服 - 一个穿着
(燕尾服:1.21)
的男人 – 交替语法 - 选择文本并按下
Ctrl+上箭头
或Ctrl+下箭头
(如果你使用 MacOS,则按下Command+上箭头
或Command+下箭头
- 一个穿
- 回环,多次运行 img2img 处理
- X/Y/Z 图,一种用不同参数绘制三维图像的方法
- 文本反转
- 你可以拥有任意数量的嵌入,并使用你喜欢的任何名称
- 使用具有不同向量数量的多个嵌入
- 适用于半精度浮点数
- 在 8GB(也有 6GB 可行的报告)上训练嵌入
- 附加选项卡包含:
- GFPGAN,修复人脸的神经网络
- CodeFormer,作为 GFPGAN 替代方案的人脸修复工具
- RealESRGAN,神经网络放大器
- ESRGAN,带有大量第三方模型的神经网络放大器
- SwinIR 和 Swin2SR,神经网络放大器
- LDSR,潜在扩散超分辨率放大
- 调整宽高比选项
- 采样方法选择
- 调整采样器 eta 值(噪声倍数)
- 更高级的噪声设置选项
- 随时中断处理
- 支持 4GB 显卡(也有 2GB 可用的报告)
- 批量处理正确种子
- 实时提示令牌长度验证
- 生成参数
- 用于生成图像的参数会与该图像一起保存
- PNG 格式保存在 PNG 数据块中,JPEG 格式保存在 EXIF 中
- 可以将图像拖到 PNG 信息选项卡中恢复生成参数,并自动将它们复制到界面中
- 可以在设置中禁用
- 将图片/文本参数拖放到提示框
- 读取生成参数按钮,将提示框中的参数加载到界面
- 设置页面
- 从 UI 中运行任意 Python 代码(必须使用
--allow-code
来启用) - 大多数 UI 元素的鼠标悬停提示
- 可以通过文本配置更改 UI 元素的默认值/混合值/最大值/步进值
- 平铺支持,一个复选框用于创建可以像纹理一样平铺的图像
- 进度条和实时图像生成预览
- 可以使用独立的神经网络来生成预览,几乎不需要 VRAM 或计算资源
- 负面提示,一个额外的文本字段,允许你列出在生成图像中不希望看到的内容
- 风格,一种保存部分提示并稍后通过下拉菜单轻松应用的方法
- 变化,一种生成相同图像但带有微小差异的方法
- 种子调整大小,一种生成相同图像但分辨率略有不同的方法
- CLIP 询问者,一个试图从图像中猜测提示的按钮
- 提示编辑,一种在生成过程中更改提示的方法,例如开始制作西瓜,中途切换到动漫女孩
- 批量处理,使用 img2img 处理一组文件
- img2img 替代方案,反向 Euler 方法用于交叉注意力控制
- 高分辨率修复,一个便捷选项,一键生成高分辨率图片而无需通常的失真
- 动态加载检查点
- Checkpoint Merger,一个标签页,允许你将最多 3 个检查点合并为一个
- 自定义脚本 ,拥有来自社区的许多扩展
- Composable-Diffusion,一种同时使用多个提示的方法
- 使用大写的
AND
分隔不同的提示 - 也支持提示词的权重:
a cat :1.2 AND a dog AND a penguin :2.2
- 使用大写的
- 提示词无限制(原版稳定扩散最多允许使用 75 个 token)
- DeepDanbooru 集成,为动漫提示词创建 danbooru 风格标签
- xformers,对特定卡片大幅提升速度:(向命令行参数添加
--xformers
) - 通过扩展: 历史标签页 :在界面中方便地查看、直接和删除图片
- 永久生成选项
- 训练标签页
- 超网络和嵌入选项
- 预处理图像:裁剪、镜像、使用 BLIP 或 deepdanbooru(用于动漫)自动打标签
- 跳过 Clip
- 超网络
- LoRA(与超网络类似但更美观)
- 一个独立的界面,你可以选择带有预览,将哪些嵌入、超网络或 LoRA 添加到你的提示中
- 可以从设置界面选择加载不同的 VAE
- 进度条中显示预计完成时间
- API
- 对 RunwayML 的专用 inpainting 模型的支持
- 通过扩展: 美学渐变 ,一种通过使用 clip 图像嵌入来生成具有特定美学图像的方法(https://github.com/vicgalle/stable-diffusion-aesthetic-gradients 的实现)
- Stable Diffusion 2.0 支持 – 请参阅维基获取说明
- Alt-Diffusion 支持 – 请参阅维基获取说明
- 现在没有任何坏字符!
- 以 safetensors 格式加载检查点
- 调整分辨率限制:生成的图像尺寸必须是8的倍数而不是64
- 现在有许可证!
- 从设置屏幕重新排序 UI 元素
- Segmind Stable Diffusion 支持
安装和运行
确保满足所需的 依赖项 并遵循提供的说明:
- 英伟达 (推荐)
- AMD 显卡。
- 英特尔 CPU,英特尔显卡(包括集成显卡和独立显卡)(外部维基页面)
- 华为昇腾 NPU(外部维基页面)
或者,可以使用在线服务(如 Google Colab):
在 Windows 10/11 上使用 NVidia-GPUs 通过发布包进行安装
- 从 v1.0.0-pre 下载
sd.webui.zip
并解压其内容。 - 运行
update.bat
。 - 运行
run.bat
。
更多详情请参见 在 NVIDIA GPU 上安装和运行
Windows 自动安装
- 安装 Python 3.10.6(较新版本的 Python 不支持 torch),勾选”将 Python 添加到 PATH”。
- 安装 git。
- 下载 stable-diffusion-webui 仓库,例如通过运行
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
。 - 从 Windows 资源管理器以普通非管理员用户身份运行
webui-user.bat
。
Linux 自动安装
- 安装依赖项:
# Debian-based: sudo apt install wget git python3 python3-venv libgl1 libglib2.0-0 # Red Hat-based: sudo dnf install wget git python3 gperftools-libs libglvnd-glx # openSUSE-based: sudo zypper install wget git python3 libtcmalloc4 libglvnd # Arch-based: sudo pacman -S wget git python3
如果你的系统非常新,需要安装 python3.11 或 python3.10:
# Ubuntu 24.04 sudo add-apt-repository ppa:deadsnakes/ppa sudo apt update sudo apt install python3.11 # Manjaro/Arch sudo pacman -S yay yay -S python311 # do not confuse with python3.11 package # Only for 3.11 # Then set up env variable in launch script export python_cmd="python3.11" # or in webui-user.sh python_cmd="python3.11"
- 前往您希望安装 webui 的目录,并执行以下命令:
wget -q https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/webui.sh
或者你想在哪里克隆仓库:
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
- 运行
webui.sh
。 - 查看
webui-user.sh
获取选项。
Apple Silicon 上的安装
找到说明 这里 。