Stable Diffusion WebUI 操作指南分享,轻松玩转AIGC图像生成

发布时间:2024-07-01 17:33:08 浏览量:190次

本文主要介绍Stable Diffusion WebUI的实际操作方法,涵盖prompt推导、lora模型、vae模型和controlNet应用等内容,并给出了可操作的文生图、图生图实战示例。适合对Stable Diffusion感兴趣,但又对Stable Diffusion WebUI使用感到困惑的同学,希望通过本文能够降低大家对Stable Diffusion WebUI的学习成本,更快速的体验到AIGC图像生成的魅力。

Stable Diffusion WebUI

引言

Stable Diffusion(简称sd)是一个深度学习的文本到图像生成模型, Stable Diffusion WebUI是对Stable Diffusion模型进行封装,提供可操作界面的工具软件。Stable Diffusion WebUI上加载的模型,是在Stable Diffusion基座模型基础上,为了获得在某种风格上的更高质量的生成效果,而进行再次训练后产生的模型。目前 Stable Diffusion 1.5版本是社区内最盛行的基座模型。

▐安装

sd web-ui的安装请参考:点击咨询

sd web-ui使用了gradio组件包,gradio在配置share=True时,会创建frpc隧道并链接到aws,因此在sd web-ui应用启动时,请根据自身安全生产或隐私保护要求,考虑是否禁止开启share=True配置,或删除frpc客户端。

▐模型

https://civitai.com/是一个开源的sd模型社区,提供了丰富的模型免费下载和使用。在此简述一下模型的分类,有助于提高对sd web-ui的使用。sd模型训练方法主要分为四类:Dreambooth, LoRA,Textual Inversion,Hypernetwork。

  1. Dreambooth:在sd基座模型的基础上,通过 Dreambooth 训练方式得到的大模型, 是一个完整的新模型,训练速度较慢,生成模型文件较大,一般几个G,模型文件格式为 safetensors 或 ckpt。特点是出图效果好,在某些艺术风格上有明显的提升。如下图所示,sd web-ui中该类模型可以在这里进行选择。
  2. LoRA: 一种轻量化的模型微调训练方法,在原有大模型的基础上对该模型进行微调,用于输出固定特征的人或事物。特点是对于特定风格的图产出效果好,训练速度快,模型文件小,一般几十到一百多 MB,不能独立使用,需要搭配原有大模型一起使用。
  3. Textual Inversion:一种使用文本提示和对应的风格图片来微调训练模型的方法,文本提示一般为特殊的单词,模型训练完成后,可以在text prompts中使用这些单词,来实现对模型生成图片风格和细节的控制,需要搭配原有的大模型一起使用。
  4. Hypernetwork:与LoRA类似的微调训练大模型的方法,需要搭配原有的大模型一起使用。
Stable Diffusion WebUI Models

▐操作流程

▐prompt推导

  1. 在sd中上传一张图片
  2. 反向推导关键词,有两个模型CLIP和DeepBooru。

使用CLIP进行prompt反推的结果:a baby is laying on a blanket surrounded by balloons and balls in the air and a cake with a name on it, Bian Jingzhao, phuoc quan, a colorized photo, dada

使用DeepBooru进行prompt反推的结果:1boy, ball, balloon, bubble_blowing, chewing_gum, hat, holding_balloon, male_focus, military, military_uniform, open_mouth, orb, solo, uniform, yin_yang

CLIP反推结果是一个句子,DeepBooru的反推结果是关键词。

可以修改正向prompt,也可以添加反向prompt,反向prompt用于限制模型在生产图片时不添加反向prompt中出现的元素。反向prompt不是必须的,可以不填。

▐lora模型

lora模型对大模型生成图的风格和质量有很强的干预或增强作用,但是lora模型需要与配套的大模型一起使用,不能单独使用。

  • 方法一

安装additional-network插件,插件的github地址:点击咨询。该插件仅支持使用sd-script脚本训练的lora模型,下载的lora模型需要放到/stable-diffusion-webui/extensions/sd-webui-additional-networks/models/lora路径下。触发lora模型时需在插件中选中lora模型并加入Trigger Words。

LoRA模型选择

方法二

不使用additional-network插件,将lora模型放到/stable-diffusion-webui/models/Lora目录下,重新启动sd-webui即可自动载入模型。

以上两种方式,选用其中任意一种均能使lora模型在内容生产中生效,两种方式同时使用也不会引起问题。

▐ControlNet

controlNet通过支持额外的输入条件,试图控制预训练的大模型,如Stable Diffusion。controlNet的出现使stable diffusion大模型的内容生成进入可控时期,让创作变得更加可控也使得AIGC在工业应用上更进一步。

  • 安装controlNet

在sd-webui上找到controlNet插件,点击install即可完成插件安装。下载开源的controlnet模型并将其放到/stable-diffusion-webui/extensions/sd-webui-controlnet/models目录下,重启sd-webui即可完成controlnet模型加载。

安装ControlNet插件

▐图生图示例

模型选择:

1、stable diffusion大模型选用:revAnimated_v11 (点击咨询)

2、lora模型选用blind_box_v1_mix (点击咨询)

3、采样方法Euler a

4、源图片使用 图1,使用DeepBooru模型进行正向prompts生成, 添加revAnimated_v11的特定prompts, 删除一些正向prompts,添加反向prompts。

正向提示词:

(masterpiece),(best quality), (

热门课程推荐

热门资讯

请绑定手机号

x

同学您好!

您已成功报名0元试学活动,老师会在第一时间与您取得联系,请保持电话畅通!
确定