个人用 Comfyui 工作流,转载部分会注明原作者及其对应仓库出处。 如有帮助欢迎 star,加快合集更新。
ComfyUI 下载:git clone https://github.com/comfyanonymous/ComfyUI.git
Comfyui 管理器下载:cd custom_nodes && git clone https://github.com/ltdrdata/ComfyUI-Manager.git
Comfyui 汉化:cd custom_nodes && git clone https://github.com/AIGODLIKE/AIGODLIKE-COMFYUI-TRANSLATION.git (随后选中页面 setting,AGL,选择中文
- 使用时,将工作流图片拖入 Comfyui 页面即可使用。
- 运行如果遇到问题,优先更新 Comfyui 查看是否能够解决,不能解决则提交 issue
其他推荐插件:
Comfyui 页面查看硬件资源、显卡占用 https://github.com/crystian/ComfyUI-Crystools
- 图片加载后对图片进行 batch 和 crop 操作
- 使用转接点可以无限延展接线
- 在图片结点右键,选择遮罩编辑器(MaskEditor)即可进行 mask 绘制;或传入带透明通道图像使用。
- 安装复用节点插件 https://github.com/kijai/ComfyUI-KJNodes
- 创建 SetNode 节点,可以传入任意工作流的输出作为备用,根据重命名结果可操作
- 创建 GetNode 节点,可根据重命名结果获得 SetNode 节点的输出
包含普通生成图像工作流,以及条件控制(控制网络)图像生成工作流。
测试模型下载:https://www.liblib.art/modelinfo/1fd281cf6bcf01b95033c03b471d8fd8
- 文生图(txt2img): 通过文字提示词生成图像
- 图生图(img2img): 通过参考图片和文字提示词转换成潜在编码,利用潜在编码生成新的图像
- 使用时更换 checkpoint 为任意 SD1.5 模型
- 使用 Conditioning (Set Area) 结点控制不同区域生成时的条件,根据不同区域的需求得到最后的生成图像
- 下载控制网络权重,可获取全部模型:
from modelscope import snapshot_download
model_dir = snapshot_download('AI-ModelScope/ControlNet-v1-1', cache_dir='./ComfyUI/models/controlnet/')
print('安装完成')
- 可以很轻松使用多个人物的 openpose 创建稳定的人物姿态,测试图片可以在该地址获取
测试模型下载:https://www.liblib.art/modelinfo/506c46c91b294710940bd4b183f3ecd7
- 文生图(txt2img): 通过文字提示词生成图像
- 图生图(img2img): 通过参考图片和文字提示词转换成潜在编码,利用潜在编码生成新的图像
- 使用时更换 checkpoint 为任意 SDXL 模型
turbo 模型
lightning 模型
flux models 中存放文件夹对应:
- 包含了clip和vae的多合一模型
Flux dev 和 schnell 都没有负面提示,因此CFG 应该设置为 1.0,意味着忽略负面提示。
- clip和unet部分分开下载的模型
模型下载地址 https://www.modelscope.cn/models/cutemodel/comfyui-sd3.5-medium
- 可以只使用一个文本编码器,或者使用三个文本编码器
- 模型文件参考下载 https://www.modelscope.cn/models/cutemodel/Resolution-model/files
- 模型文件放在 models/upscale_models 目录下
SAM
局部重绘
局部修复
面部眼部修复
图像扩展
sd1.5 ipadapter 参考
sdxl ipadapter 参考
flux redux 参考
电脑资源不够,可以利用 BizyAir 组件进行0资源生图体验:
https://github.com/siliconflow/BizyAir
FLUX 文生图与图生图工作流
captiopn 工作流
感谢以下作者网站提供的灵感
Comfyui 官方教程: https://comfyanonymous.github.io/ComfyUI_examples/