AI艺术家-第一期-天马行空的绘画-stable-diffusion云端使用教程
ドラゴンボールのLong Lv4

AI根据提示生成的画风图片

最近可能见过不少这样的图片,比如童话风格的:

1
prompt: a girl wearing a red cloak is holding a basket full os apples in a magical forest full of wonders, wide, pine trees, streams, matte painting, digital illustration, very vibrant colors, soft lighting, adventurous, atmospheric lighting, 8K, octane render.

或者是艺术科幻类型的:

1
an astronaut sunbathing at the beach with, isometric, complimentary colors, perfect lighting, aesthetic, masterpiece, award winning, artstation, 4 k, darek zabrocki, greg rutkowski, artgerm 

或者是梦幻型的:

1
contrast and vibrant fancy portrait of a gloomy princess of a giant floating flower and jellyfish by Greg Rutkowski, Sung Choi, Mitchell Mohrhauser, Maciej Kuciara, Johnson Ting, Maxim Verehin, Peter Konig, Bloodborne, beeple, 8k photorealistic, cinematic lighting, HD, high details, atmospheric , trending on artstation. made in Maya, Blender and Photoshop, octane render, excellent composition, cinematic dystopian brutalist atmosphere, dynamic dramatic cinematic lighting, aesthetic, very inspirational, arthouse. y Greg Rutkowski, Ilya Kuvshinov, WLOP, Stanley Artgerm Lau, Ruan Jia and Fenghua Zhong

来源

正如我们上面所看到的,这些不同风格的图片都很像是画功深厚的艺术家画的,但是它们都不是真正的画家之手,而是AI艺术家

我们来看下AI绘画发展的时间线

  • Disco Diffusion 是发布于Google Colab 平台的一款利用人工智能深度学习进行数字艺术创作的工具,它是基于MIT 许可协议的开源工具,可以在Google Drive 直接运行,也可以部署到本地运行。但是Disco Diffusion 有一个弊端,就是速度非常慢,动辄 半个小时起步。
  • Midjourney是Disco Diffusion的原作者Somnai所加入的AI艺术项目实验室。Midjourney 对 Disco Diffusion 进行了改进,平均1分钟能出图。
  • OpenAI推出 DALL·E 2, DALL-E 2实现了更高分辨率和更低延迟,而且还包括了新的功能,如编辑现有图像。
  • stability-ai 推出 Stable-Diffusion并且开源了 一经推出就受到广大网友的喜爱,操作简单,出图快,平均10-20秒。

Stable-Diffusion 免费、生成速度又快,每一次生成的效果图就像是开盲盒一样,需要不断尝试打磨,所以大家都疯狂似的开始玩耍,甚至连特斯拉的前人工智能和自动驾驶视觉总监 Andrej Karpathy 都沉迷于此。

stability-ai是一个年轻的英国团队,他们的宗旨为 “AI by the people, for the people” ,中文翻译的大意为,人们创造AI,并且AI服务于人,除了 stable-diffusion 他们还参与了众多的 AI 项目

下面主要介绍的就是 stable-diffusion 的玩法,官方利用 stable-diffusion 搭建的平台主要是 dreamstudio.ai ,当然如果电脑是N卡,性能足够,也可以下载到本地来运行,这个我后面会在本地搭建运行使用,下面就详解官方云端的玩法。

使用方式

官网平台注册账号,生成AI图片

打开网页选择一种注册方式来进行登录,
我使用了 Google 账号登录:
https://beta.dreamstudio.ai/


注册好后,就可以进入到这个界面。
你可以直接在下方输入名词,也可以在打开右侧的设置按钮,里面会更详细的配置。

输入好关键词后,直接点 Dream 按钮,等待10秒左右就可以生成图片。

1
我所输入的关键词:contrast and vibrant fancy portrait of a gloomy princess of a giant floating flower and jellyfish by Greg Rutkowski, Sung Choi, Mitchell Mohrhauser, Maciej Kuciara, Johnson Ting, Maxim Verehin, Peter Konig, Bloodborne, beeple, 8k photorealistic, cinematic lighting, HD, high details, atmospheric , trending on artstation. made in Maya, Blender and Photoshop, octane render, excellent composition, cinematic dystopian brutalist atmosphere, dynamic dramatic cinematic lighting, aesthetic, very inspirat

在官方的平台生成图片的方式非常的方便,但是生成的次数是有限的

可以看到右上角的点数,默认你注册账号会有200点点数,每次生成一张默认设置的图片就会消耗一个点数,如果你要生成更多的方式就需要付费了, 10 英镑 1000 点数。

如果你想获得更高精细程度的图片,单次则需要消耗更多的点数。以下是官方给出的价格表:

而且使用这种方式,你生成图片的版权是自动转为为 CC0 1.0,你可以商用或者非商用你生成的图片,但是也会默认成为公共领域的资源。

使用Google的Colab(推荐)

这一种是我比较推荐的方式,因为这种方式你可以几乎无限地使用 Stable Diffusion,并且由于这种方式是你自己跑模型的方式生成的图片,版权归属于你自己。

Colab 是什么呢?

Colaboratory 简称“Colab”,是 Google Research 团队开发的一款产品。在 Colab 中,任何人都可以通过浏览器编写和执行任意 Python 代码。它尤其适合机器学习、数据分析和教育目的。从技术上来说,Colab 是一种托管式 Jupyter 笔记本服务。用户无需设置,就可以直接使用,同时还能获得 GPU 等计算资源的免费使用权限。—— https://research.google.com/colaboratory/faq.html?hl=zh-CN


由于 Colab 是Google 的产品,因此你使用前必须要拥有一个 Google 账户,我们目前默认使用的是 Hugging face 开源的 colab 示例。

Hugging face 是一家总部位于纽约的聊天机器人初创服务商,开发的应用在青少年中颇受欢迎,在上面存储了大量的模型,而 Stability.ai 的 Stable Diffusion 也是开源在上面。
打开链接:https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/stable_diffusion.ipynb

页面打开后,点击右上角的连接


连接后,会跳出提示,点击确定


等连接上后我们运行第一段脚本,就是查看当前使用的机器。一般是从 K80、T4、P100、V100 中随机分配一个。


我拿到的是一个 Tesla T4 GPU 的机器 (机器分配比较随机,V100的资源较少,如果你拿到了V100,今天你就可以试试买几张彩票了😊)


然后继续跑下面的命令,安装必要的依赖,每次安装完成后,都会显示运行时间以及运行状态。


运行到这一步,会要求你填写一个 huggingface_hub 的 token 链接


打开网页: https://huggingface.co/settings/tokens ,如果没有登录默认会调到登录页


注册一个账号后,复制这个 Token 到 Colab 页面


然后会提示你登录成功了,如果提示异常应该是你复制错了,这个时候你得点开秘钥,手动复制一下。


然后接下来我们就开始拉取模型

你这里如果运行报错了,显示 403,这是因为你没有去 huggingface 授权访问

1
{"error":"Access to model CompVis/stable-diffusion-v1-4 is restricted and you are not in the authorized list. Visit https://huggingface.co/CompVis/stable-diffusion-v1-4 to ask for access."}

打开 https://huggingface.co/CompVis/stable-diffusion-v1-4

点击 运行这个仓库,然后再回到 Colab 就可以正常拉取模型了。

cuda是N卡的表示,如果本地运行没有显卡,可以用cpu来代替

然后,你就可以生成图片了,开始生成图片,运行以下两个步骤,prompt 就是描述,你可以输入任何你想输入的话语,比如我想要一个红色斗篷的女孩图片:

a girl wearing a red cloak is holding a basket full os apples in a magical forest full of wonders, wide, pine trees, streams, matte painting, digital illustration, very vibrant colors, soft lighting, adventurous, atmospheric lighting, 8K, octane render.

点击运行就会生成一张在森林里的红色斗篷小女孩照片(大约20秒左右)

以上基础的教程就完成了,后面还可以设置更多丰富的参数。




设置随机种子(先快速生成低质量图片看看效果,然后再调高画质)




调整迭代次数,num_inference_steps=15


多列图片


多行多列设置,这里我设置三行两列


设置宽高


Google的云端,我更加偏好这种方式,因为可以自己 diy,而且在任意一台电脑上,不用自己显卡和cpu的情况下,可以近乎无限地使用。

最后如果你想不好 prompt 的话,可以参考这个网站 https://lexica.art/ ,含有大量别人试验好的样子。

关于版权

stable-diffusion 并没有特别限制,但是使用图片必须要遵守以下规则:

1.如果你是使用第三方平台,需要遵守第三方平台的一些规定,例如官方的 dreamstudio.ai 你可以自己商业或者非商用,但是默认你得也遵循 CC0 1.0 条约。
2.如果你使用自己本地部署,那么版权归属你自己。

  • 本文标题:AI艺术家-第一期-天马行空的绘画-stable-diffusion云端使用教程
  • 本文作者:ドラゴンボールのLong
  • 创建时间:2022-09-05 09:10:12
  • 本文链接:https://zhongshenglong.xyz/2022/09/05/AI艺术家-第一期-天马行空的绘画-stable-diffusion云端使用教程/
  • 版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
 评论