哈喽大家好,前几期分享了一些常用的插件,非常适合抄作业用,但想动手搭建自己的工作流,就要搞懂各个节点是做什么的,这样才能灵活的掌握和使用ComfyUI

开始基础工作流拆解之前,先介绍下SD基础的转化流程
【输入】—(转换)—【潜在空间】—(转换)—【输出】

无论是文生图还是图生图,提示词/图片作为输入基础信息传递给AI,AI并不认识这些,这里需要转化成计算机认识的内容到潜在空间中
所有的运算和生成过程也都是在潜在空间,当完成图片后,需要再从潜在空间次转化出来,转化成我们看得懂的像素图像

从零搭建文生图

1、加载器

首先添加大模型的加载器,通过加载器这一个节点来延伸出整个工作流的节点

在这里插入图片描述
2、正反向提示词节点

可以看到这里有三个延伸点,首先是CLIP文本编码器,将节点延伸就可以看到常用的基本节点,也可以【搜索】插件节点,延伸出的CLIP节点会自动连上(再连接一个负向提示词文本编码器)

这里对应的是文本部分的【输入】—(转换)—【潜在空间】

在这里插入图片描述
3、模型

同样的,从模型节点拖出一个K采样器,可以看到,K采样器上正负提示词与CLIP文本节点上的颜色是相同的,将相对应的节点相连即可

模型的【输入】—(转换)—【潜在空间】

在这里插入图片描述
4、Latent

可以看到,这时采样器左边缺少一个Latent节点,延伸出来是个空Latent,这个空Latent就是分辨率的输入

(分辨率的【输入】—(转换)—【潜在空间】)

右边的Laten延伸出来,就是VAE的解码,就是从潜在空间的内容通过VAE的解码转化成像素

(这里不要忘记VAE和大模型的VAE相连,或者单独连接一个VAE加载器,VAE解码没有对应大模型是无法完成的)

【潜在空间】—(转换)—【输出】

在这里插入图片描述
5、保存图像

从VAE延伸出保存图像节点,这样文生图的基本工作流就搭建完成了

正因为每个节点所连接的节点不是唯一的,这使得ComfyUI的自由度比WebUI高得多,在理解

【输入】—(转换)—【潜在空间】—(转换)—【输出】

这个基本逻辑下,知道每个节点可以链接什么,对发散自定义工作流就非常有帮助了

在这里插入图片描述

资源分享

为了帮助大家更好地掌握
ComfyUI,我在去年花了几个月的时间,撰写并录制了一套ComfyUI的基础教程,共六篇。这套教程详细介绍了选择ComfyUI的理由、其优缺点、下载安装方法、模型与插件的安装、工作流节点和底层逻辑详解、遮罩修改重绘/Inpenting模块以及SDXL工作流手把手搭建。

一、ComfyUI配置指南
  • 报错指南
  • 环境配置
  • 脚本更新
  • 后记

img

二、ComfyUI基础入门
  • 软件安装篇
  • 插件安装篇

img

三、 ComfyUI工作流节点/底层逻辑详解
  • ComfyUI 基础概念理解
  • Stable diffusion 工作原理
  • 工作流底层逻辑
  • 必备插件补全

img

四、ComfyUI节点技巧进阶/多模型串联
  • 节点进阶详解
  • 提词技巧精通
  • 多模型节点串联

img

五、ComfyUI遮罩修改重绘/Inpenting模块详解
  • 图像分辨率
  • 姿势

img

六、ComfyUI超实用SDXL工作流手把手搭建
  • Refined模型
  • SDXL风格化提示词
  • SDXL工作流搭建

img

由于篇幅原因,本文精选几个章节,详细版点击下方卡片免费领取

这份完整版的AIGC资料我已经打包好,长按下方二维码,即可免费领取!

【AIGC所有方向的学习路线思维导图】

img

【AIGC工具库】

img

【精品AIGC学习书籍手册】

img

【AI绘画视频合集】

img
这份完整版的AIGC资料我已经打包好,长按下方二维码,即可免费领取!

Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐