SD(Stable diffussion),WebUI、ComfyUI使用问题、疑难杂症等讨论最强贴

crystian/ComfyUI-Crystools: A powerful set of tools for ComfyUI

该套装可以看到资源监视器,进度条和时间流逝,元数据和两个图像之间的比较,两个JSON之间的比较,显示任何值到控制台/显示器,管道,等等!提供了更好的节点来加载/保存图像、预览等,并在不加载新工作流的情况下查看“隐藏”数据。

我也搭了SD webUI,不太会画。感觉要比midjourney效果差一些。有没有特别通吃的模型推荐?

看楼上,我有推荐比较“通吃”的模型,现在几个顶流大模型训练的都比较精致,XL以后的模型对于NLP自然语言语义的理解都有了不小的提升,推荐使用。
另外,核心就是要在提词上多下功夫。
最新发布的SD3开放API申请地址: Stability AI - Developer Platform

模型都是从huggingface找吧?又连不上又找不到哪个是官方的。
我从镜像站找了一个

下好了再试试

可以从镜像下,很快的

SD XL 的模型是不是必须GPU渲染,而且显存/内存占用很大?(平时用CPU渲染的16G内存电脑瑟瑟发抖;显存只有2G而且就是不能共享系统内存……)

是的,最好使用N卡,根据我的经验,对用户不同需求及使用目的做以下分层,供参考:
1、尝试体验级用户,显存4G-8G起,使用comfyUI;
2、摸索尝鲜级用户,显存8G-16G;
3、应用场景级用户,显存24G以上;
4、现无显卡支撑情况下的用户,可以考虑云端租用或开发平台使用;

今日推荐
chflame163/ComfyUI_LayerStyle: A set of nodes for ComfyUI that can composite layer and mask to achieve Photoshop like functionality.

一组为ComfyUI设计的节点,可以合成图层达到类似Photoshop的功能。这些节点将PhotoShop的一部分基本功能迁移到ComfyUI,旨在集中工作流程,减少软件切换的频率。

YOLOv8 Ultralytics:最先进的YOLO模型 - 哔哩哔哩

修手、修脸、修身,都用得着 :grinning:

TencentQQGYLab/ELLA: ELLA: Equip Diffusion Models with LLM for Enhanced Semantic Alignment — QQGYLab/ELLA:ELLA:为扩散模型配备LLM以增强语义对齐

TencentQQGYLab/ComfyUI-ELLA: ELLA nodes for ComfyUI

jiaxiangc/ComfyUI-ResAdapter: ComfyUI extension for ResAdapter.

一个即插即用的分辨率适配器,用于使任何扩散模型生成无分辨率图像:没有额外的训练,没有额外的推理,没有风格转移。

kealiu/ComfyUI-ZeroShot-MTrans: ZeST: Zero-Shot Material Transfer from a Single Image

从单个图像进行零拍摄材料传输。给定输入图像(例如,苹果的照片)和单个材料样本图像(例如,一个金碗),ZeST可以转移黄金材料从样本到苹果与准确的照明线索,同时使一切都一致。

nullquant/ComfyUI-BrushNet: ComfyUI BrushNet nodes

一个具有分解双分支扩散的即插即用图像修补模型。

Extraltodeus/ComfyUI-AutomaticCFG: If your image was a pizza and the CFG the temperature of your oven: this is a thermostat that ensures it is always cooked like you want. Also adds a 30% speed increase. For ComfyUI / StableDiffusion — Extraltodeus/ComfyUI-AutomaticCFG:如果你的图像是一个比萨饼,而CFG是你烤箱的温度:这是一个恒温器,可以确保它总是像你想要的那样烹饪。速度提升30%。对于ComfyUI / StableDiffusion

kijai/ComfyUI-IC-Light-Wrapper: Wraps the IC-Light Diffuser demo to a ComfyUI node

IC-Light是一个操纵图像照明的项目

cubiq/ComfyUI_FaceAnalysis:ComfyUI的扩展,用于评估两张面孔之间的相似性 — cubiq/ComfyUI_FaceAnalysis: Extension for ComfyUI to evaluate the similarity between two faces

The best way to evaluate generated faces is to first send a batch of 3 reference images to the node and compare them to a forth reference (all actual pictures of the person). That will give you a baseline number that you can use to compare to generated images.
评估生成的人脸的最佳方法是首先将一批3个参考图像发送到节点,并将它们与第四个参考(所有人的实际照片)进行比较。这将为您提供给予一个基线编号,您可以使用该编号与生成的图像进行比较。

cubiq/PuLID_ComfyUI:PuLID原生实现ComfyUI — cubiq/PuLID_ComfyUI: PuLID native implementation for ComfyUI

PuLID: Pure and Lightning ID Customization via Contrastive Alignment

Pure PuLID:通过对比对齐的Pure和Lightning ID自定义

1063+24G内存 :see_no_evil:
看教程搭过webui(现在换成了stable-diffusion-webui-forge),基本只能输出1000x1000以下的图片,用的novelAI模型,出来的图片感觉都很粗糙 :joy:

SD1.5的底模建议先出512,768的尺寸,sdxl的底模输出图像1024,1024的图片,喜欢的图片在做放大处理,基本逻辑,技巧很多的