
AI根据提示生成的画风图片
最近可能见过不少这样的图片,比如童话风格的:
1 | prompt: a girl wearing a red cloak is holding a basket full os apples in a magical forest full of wonders, wide, pine trees, streams, matte painting, digital illustration, very vibrant colors, soft lighting, adventurous, atmospheric lighting, 8K, octane render. |
或者是艺术科幻类型的:
1 | an astronaut sunbathing at the beach with, isometric, complimentary colors, perfect lighting, aesthetic, masterpiece, award winning, artstation, 4 k, darek zabrocki, greg rutkowski, artgerm |
或者是梦幻型的:
1 | contrast and vibrant fancy portrait of a gloomy princess of a giant floating flower and jellyfish by Greg Rutkowski, Sung Choi, Mitchell Mohrhauser, Maciej Kuciara, Johnson Ting, Maxim Verehin, Peter Konig, Bloodborne, beeple, 8k photorealistic, cinematic lighting, HD, high details, atmospheric , trending on artstation. made in Maya, Blender and Photoshop, octane render, excellent composition, cinematic dystopian brutalist atmosphere, dynamic dramatic cinematic lighting, aesthetic, very inspirational, arthouse. y Greg Rutkowski, Ilya Kuvshinov, WLOP, Stanley Artgerm Lau, Ruan Jia and Fenghua Zhong |
来源
正如我们上面所看到的,这些不同风格的图片都很像是画功深厚的艺术家画的,但是它们都不是真正的画家之手,而是AI艺术家
我们来看下AI绘画发展的时间线
- Disco Diffusion 是发布于Google Colab 平台的一款利用人工智能深度学习进行数字艺术创作的工具,它是基于MIT 许可协议的开源工具,可以在Google Drive 直接运行,也可以部署到本地运行。但是Disco Diffusion 有一个弊端,就是速度非常慢,动辄 半个小时起步。
- Midjourney是Disco Diffusion的原作者Somnai所加入的AI艺术项目实验室。Midjourney 对 Disco Diffusion 进行了改进,平均1分钟能出图。
- OpenAI推出 DALL·E 2, DALL-E 2实现了更高分辨率和更低延迟,而且还包括了新的功能,如编辑现有图像。
- stability-ai 推出 Stable-Diffusion并且开源了 一经推出就受到广大网友的喜爱,操作简单,出图快,平均10-20秒。
Stable-Diffusion 免费、生成速度又快,每一次生成的效果图就像是开盲盒一样,需要不断尝试打磨,所以大家都疯狂似的开始玩耍,甚至连特斯拉的前人工智能和自动驾驶视觉总监 Andrej Karpathy 都沉迷于此。
stability-ai是一个年轻的英国团队,他们的宗旨为 “AI by the people, for the people” ,中文翻译的大意为,人们创造AI,并且AI服务于人,除了 stable-diffusion 他们还参与了众多的 AI 项目
下面主要介绍的就是 stable-diffusion 的玩法,官方利用 stable-diffusion 搭建的平台主要是 dreamstudio.ai ,当然如果电脑是N卡,性能足够,也可以下载到本地来运行,这个我后面会在本地搭建运行使用,下面就详解官方云端的玩法。
使用方式
官网平台注册账号,生成AI图片
打开网页选择一种注册方式来进行登录,
我使用了 Google 账号登录: https://beta.dreamstudio.ai/
注册好后,就可以进入到这个界面。
你可以直接在下方输入名词,也可以在打开右侧的设置按钮,里面会更详细的配置。
输入好关键词后,直接点 Dream 按钮,等待10秒左右就可以生成图片。
1 | 我所输入的关键词:contrast and vibrant fancy portrait of a gloomy princess of a giant floating flower and jellyfish by Greg Rutkowski, Sung Choi, Mitchell Mohrhauser, Maciej Kuciara, Johnson Ting, Maxim Verehin, Peter Konig, Bloodborne, beeple, 8k photorealistic, cinematic lighting, HD, high details, atmospheric , trending on artstation. made in Maya, Blender and Photoshop, octane render, excellent composition, cinematic dystopian brutalist atmosphere, dynamic dramatic cinematic lighting, aesthetic, very inspirat |
在官方的平台生成图片的方式非常的方便,但是生成的次数是有限的
可以看到右上角的点数,默认你注册账号会有200点点数,每次生成一张默认设置的图片就会消耗一个点数,如果你要生成更多的方式就需要付费了, 10 英镑 1000 点数。
如果你想获得更高精细程度的图片,单次则需要消耗更多的点数。以下是官方给出的价格表:
而且使用这种方式,你生成图片的版权是自动转为为 CC0 1.0,你可以商用或者非商用你生成的图片,但是也会默认成为公共领域的资源。
使用Google的Colab(推荐)
这一种是我比较推荐的方式,因为这种方式你可以几乎无限地使用 Stable Diffusion,并且由于这种方式是你自己跑模型的方式生成的图片,版权归属于你自己。
Colab 是什么呢?
Colaboratory 简称“Colab”,是 Google Research 团队开发的一款产品。在 Colab 中,任何人都可以通过浏览器编写和执行任意 Python 代码。它尤其适合机器学习、数据分析和教育目的。从技术上来说,Colab 是一种托管式 Jupyter 笔记本服务。用户无需设置,就可以直接使用,同时还能获得 GPU 等计算资源的免费使用权限。—— https://research.google.com/colaboratory/faq.html?hl=zh-CN
由于 Colab 是Google 的产品,因此你使用前必须要拥有一个 Google 账户,我们目前默认使用的是 Hugging face 开源的 colab 示例。
Hugging face 是一家总部位于纽约的聊天机器人初创服务商,开发的应用在青少年中颇受欢迎,在上面存储了大量的模型,而 Stability.ai 的 Stable Diffusion 也是开源在上面。
打开链接:https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/stable_diffusion.ipynb
页面打开后,点击右上角的连接
连接后,会跳出提示,点击确定
等连接上后我们运行第一段脚本,就是查看当前使用的机器。一般是从 K80、T4、P100、V100 中随机分配一个。
我拿到的是一个 Tesla T4 GPU 的机器 (机器分配比较随机,V100的资源较少,如果你拿到了V100,今天你就可以试试买几张彩票了😊)
然后继续跑下面的命令,安装必要的依赖,每次安装完成后,都会显示运行时间以及运行状态。
运行到这一步,会要求你填写一个 huggingface_hub 的 token 链接
打开网页: https://huggingface.co/settings/tokens ,如果没有登录默认会调到登录页
注册一个账号后,复制这个 Token 到 Colab 页面
然后会提示你登录成功了,如果提示异常应该是你复制错了,这个时候你得点开秘钥,手动复制一下。
然后接下来我们就开始拉取模型
你这里如果运行报错了,显示 403,这是因为你没有去 huggingface 授权访问
1 | {"error":"Access to model CompVis/stable-diffusion-v1-4 is restricted and you are not in the authorized list. Visit https://huggingface.co/CompVis/stable-diffusion-v1-4 to ask for access."} |
打开 https://huggingface.co/CompVis/stable-diffusion-v1-4
点击 运行这个仓库,然后再回到 Colab 就可以正常拉取模型了。
cuda是N卡的表示,如果本地运行没有显卡,可以用cpu来代替
然后,你就可以生成图片了,开始生成图片,运行以下两个步骤,prompt 就是描述,你可以输入任何你想输入的话语,比如我想要一个红色斗篷的女孩图片:
a girl wearing a red cloak is holding a basket full os apples in a magical forest full of wonders, wide, pine trees, streams, matte painting, digital illustration, very vibrant colors, soft lighting, adventurous, atmospheric lighting, 8K, octane render.
点击运行就会生成一张在森林里的红色斗篷小女孩照片(大约20秒左右)
以上基础的教程就完成了,后面还可以设置更多丰富的参数。
设置随机种子(先快速生成低质量图片看看效果,然后再调高画质)
调整迭代次数,num_inference_steps=15
多列图片
多行多列设置,这里我设置三行两列
设置宽高
Google的云端,我更加偏好这种方式,因为可以自己 diy,而且在任意一台电脑上,不用自己显卡和cpu的情况下,可以近乎无限地使用。
最后如果你想不好 prompt 的话,可以参考这个网站 https://lexica.art/ ,含有大量别人试验好的样子。
关于版权
stable-diffusion 并没有特别限制,但是使用图片必须要遵守以下规则:
1.如果你是使用第三方平台,需要遵守第三方平台的一些规定,例如官方的 dreamstudio.ai 你可以自己商业或者非商用,但是默认你得也遵循 CC0 1.0 条约。
2.如果你使用自己本地部署,那么版权归属你自己。
- 本文标题:AI艺术家-第一期-天马行空的绘画-stable-diffusion云端使用教程
- 本文作者:ドラゴンボールのLong
- 创建时间:2022-09-05 09:10:12
- 本文链接:https://zhongshenglong.xyz/2022/09/05/AI艺术家-第一期-天马行空的绘画-stable-diffusion云端使用教程/
- 版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!