AI绘图傻瓜指南 - 5分钟教你让妹子摆出你想要的姿势

   日期:2024-12-27    作者:hubinusb 浏览:91    移动:http://w.yusign.com/mobile/quote/7246.html

相信上一期大家都会生成自己的专属AI妹子了,不知道大家玩的咋样

上一期见:AI绘图傻瓜指南 - 5分钟带你生成你的专属AI妹子

生成AI妹哪哪都好,但是我相信大家已经不满足于此了。在之前,一直有一个痛点是:没法自定义姿势。

即使你的提示词写的再精准,他也没办法完全按你的想法来,属于随缘抽奖,生成100张,总能抽到几个SSR。

而神级SD插件ControlNET的诞生,意味着抽卡游戏结束了,ControlNET补上了AIGC的最后一块拼图,自定义姿势,根据线稿、骨骼、其他图片直接生成全新的图,AI绘图正式进入自主可控的世代。

以下是我用ControlNET还原的:

还原度相当离谱,这只是ControlNET的冰上一角。我也相当佩服ControlNET的作者,正在斯坦福读博的中国人,叫张吕敏,真正的技术宅,和一个印度老哥一起干出这种神器,还直接开源,简直就是赛博菩萨,致敬!

话不多说,直接开始傻瓜式教程。

一.安装ControlNET插件

首先大家肯定都已经完成了SD的本地化部署了,不会的见第一期,老规矩,我们先启动他。

然后我们要开始在线安装ControlNET插件了,找到右上角的扩展,然后点击从网址安装,把这段网址输入到下方。

https://github.com/Mikubill/sd-webui-controlnet

(注:此处因为要从github上下载,所以一定要科学上网以后再点安装,要不然大概率卡住)

然后我们点击安装,过几十秒1分钟左右,就能看到这个提示,说明插件安装成功了。

但是别急,ControlNET插件的本体我们安装成功了,但是我们还需要训练的模型,这里我也已经给大家整合好了傻瓜模型包,关注公众号:数字生命卡兹克,私信回复C就有了。下载好解压后,就能看到这8个模型。

我们把模型放到你的SD目录extensionssd-webui-controlnetmodels下

OK,大功告成。我们直接应用并重启界面!

重启成功后,我们看到首页这块有ControlNET的模块,就说明安装成功啦!

二. 生成AI图

老规矩,我们先还是正常写提示词,这里我直接给一组我自己最常用的赛博朋克妹子的Prompt


(cyberpunk girl), (augmented reality:1), (neon lights), 1girl, blonde grey long hair,thick lips, blue contact lenses, hand on another's hip, silver cybernetic implants,long sleeves,black crop top, black leather jacket, purple metallic leggings, silver metallic boots,halo, earrings, pendant, wristband, armlet,
Negative prompt: paintings, sketches, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age spot
Steps: 28, Sampler: DPM++ SDE Karras, CFG scale: 8, Seed: -1, Size: 512x768, Model hash: fc2511737a, Model: chilloutmix_NiPrunedFp32Fix, Denoising strength: 0.45, ENSD: 31337, Hires upscale: 1.75, Hires steps: 20, Hires upscaler: Latent (bicubic antialiased)

, bbest quality, masterpiece,best quality,official art,extremely detailed CG unity 8k wallpaper,, (photorealistic:1.4), colorful, (Kpop idol), (aegyo sal:1),((puffy eyes)), full body,

先跑一张。

OK,一切正常,没啥问题。这时候我们点开ControlNET模块。

简单给大家解释一下常用的功能,其他的都不需要管。

上面大大的偏【拖拽图像到此处】,就是拖一张参考图进去。【启用】这个很简单,勾上就是开启ControlNET让他生效。【低显存优化】,如果你的显卡显存小于8G就勾上。【权重】一般用0.5~0.8就行,如果你一定要一模一样的在往大了改,注意1尽量少用,容易出现崩坏的克苏鲁古神。

【预处理器】就是咱们刚才下载的那些模型,一会具体解释这些模型的区别,这里我们先选OpenPose,后面的模型一定要选跟预处理器对应的,比如预处理器我们选了OpenPose,后面就也是OpenPose命名;如果预处理器是Hed,后面也得是Hed,以此类推

OK,设置完毕,咱们直接把咱们鸡哥扔进去。

右上角开始生成!

没啥毛病,基本一致,大家可以开动脑洞愉快的玩起来了~

三. 模型区别

接下来稍微花一点篇幅讲一点ControlNET常用的5个模型的区别,大家在用的时候也可以针对性选择。

1.Canny

Canny模型主要就是把原图的边缘提取出来并生成线稿,然后通过线稿和提示词进行二次绘制。这个模型适合复原人物,对细节的复原能力很强

2.Depth(MiDaS和LeReS深度信息估算)

懂三维的朋友应该会非常熟悉,就是深度图,从图片中提取黑白两色,越黑则离镜头越远,越白则离镜头越近,适合还原图片的空间关系和结构,尽量用真人照片或者三维照片做参考。(注:Depth的两种算法MiDaS和LeReS,据说LeReS更牛逼一些,但是我用起来反而没有MiDaS好用。个人还是常用MiDaS)

3.Hed

跟Canny基本相似,都是边缘检测提取线稿,唯一的不同是,Canny提取的线稿边更锐利,像铅笔画出来的,Hed的线稿边缘更柔和,像毛笔画出来的。如果是做毛发或者动物之类的,Hed更合适一些。这个没啥优劣,看个人喜好。

4.M-LSD

主要针对建筑设计,对棱角分明的建筑有超高的还原甚至是直接输出效果。

5.OpenPose

神中的神,生成骨骼图,摆脱提示词控制人物骨骼姿势,并且最近新出的OpenPose支持手部骨骼检测了,极大概率解决了AI一直不会画手的问题,另外参考图片最好用照片,效果会最好

以上,就是我个人常用的5种模型啦,大家快乐的玩起来吧。

写在最后。

当前AI技术的迭代速度,甚至远超过了大多数人的学习速度,大多数人根本不理解世界即将遇到的变化,将会是如此的巨大,翻天覆地式的变革,我无法想象年底时,AI会迭代到什么样的恐怖的速度,仅仅是现在,我勉强跟上他的发展,已经耗尽了的全部精力,未来,不敢想象。

AI再怎么变化,但是我们也绝对不要用来做任何影响社会秩序、侵犯版权肖像权的事情,更不要用来违法犯罪!

本文地址:http://w.yusign.com/quote/7246.html    述古往 http://w.yusign.com/static/ , 查看更多

特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关行情
推荐行情
点击排行
{
网站首页  |  关于我们  |  联系方式  |  用户协议  |  隐私政策  |  版权声明  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号