从零开始玩转Stable Diffusion,本地绘图轻松搞定

发布时间:2024-08-11 14:43:29 浏览量:155次

#头条创作挑战赛#

写在前面

OpenAI 这段时间发布了许多工具,如GPT系列语言模型、DALL-E图像生成模型和Codex编程辅助模型等,这些工具在文本生成、图像创作和代码编写领域得到了广泛应用。最近推出的Sora更是实现了文本到视频直接生成,对于创作者来说简直是神器。

我最近在尝试使用Stable Diffusion,这个开源工具提供了多种模型,绘制出的图像质量也非常高,还能避免版权纠纷,是一个很好的创作工具。顺便推荐一下tensor网站,支持多种模型,可以实现文字绘图,而且免费额度非常高。

网站支持中文显示,中文关键词还能自动转换为英文。以下是我绘制的机甲美女图片。

尽管在线绘图工具Midjourney使用方便,但本地部署另有奥妙。这次我来和大家分享如何利用显卡进行本地绘图的方案Stable Diffusion。

本地部署绘图工具 Stable Diffusion

以前搭建Stable Diffusion需要折腾Python环境,但自从出现整合包以后,搭建过程就变得相当简单舒适了,更新也变得自动化。

目前流行的整合包是秋叶aaaki和独立研究员星空,两者使用的内核一样,区别在于界面和集成的插件不同。我在这里使用秋叶aaaki整合包作为演示。

初次运行时需要安装依赖包。

解压下载好的整合包后,运行"A绘世启动器.exe"。

注意:解压文件不要放在中文目录。

启动界面点击“一键启动”,程序会自动加载必须的启动项。

启动成功后的界面如图所示,强烈建议下载最新版本,常用插件已经设置好,包括汉化包、无边图像浏览等,甚至CLIP终止层数也自动显示在右上角,无需手动安装。

点击模型类别再点击上方按钮,可以快速定位模型保存目录,非常实用。

更建议从专业站点下载模型,比如civitai和liblibAI,模型数量多且能预览风格,点击下载按钮即可。

Stable Diffusion的模型种类虽然多,但类别并不多,下载模型时可以看到模型对应的类别,下载后也要放入相应目录。

Stable Diffusion使用的界面不同模型、提示词、设置出来的图像都各不相同,这也是AI绘图最有趣的地方。初次使用建议参考网上的成品图微调参数,以便更好地理解各个参数的作用。

以下是对照成品图的设置:

输出的图像质量不错,不过脸部有点崩,因为没有使用专门的脸部模型。

接下来实战一张图,观察到使用了三个模型,下载并复制到相应目录。

设定参数,选择一次生成4张图。

生成结束后,耗时41秒,显存占用接近12G,现在可以体会到大显存的好处了吧。下一篇我准备做一个不同显卡跑Stable Diffusion的对比测试。

只要模型和种子数与原图相同,生成的成品可以完美复刻原图。

最后

一篇简单的Stable Diffusion搭建教程,但玩转SD最重要的是模型。下次我考虑做显卡性能对比,或者专门推荐模型,感兴趣的朋友可以关注一波。

想要学习更多关于数字艺术的内容吗?欢迎了解关于数字艺术的课程,专业老师教学,让您快速掌握技能。

热门课程推荐

热门资讯

请绑定手机号

x

同学您好!

您已成功报名0元试学活动,老师会在第一时间与您取得联系,请保持电话畅通!
确定