Stable-Diffusion-v1-5-archive与ComfyUI工作流集成可视化节点编程高级教程如果你已经玩腻了WebUI那种“一键生成”的模式开始好奇图像生成的“黑匣子”里到底发生了什么或者你渴望对生成过程有更精细、更可控的把握那么恭喜你你来对地方了。今天我们要聊的就是把那个经典的Stable Diffusion v1.5模型塞进一个叫ComfyUI的“可视化编程”工具里让你能像搭积木一样亲手构建和操控整个AI绘画的流水线。ComfyUI可能听起来有点陌生但它绝对是进阶玩家的宝藏。它没有花哨的界面只有一个个节点和连接线但正是这种“原始”的方式给了你无限的自由度。你可以清晰地看到从一段文字描述到最终图像的每一步转换可以随时截断、修改、放大流程中的任何中间结果。这不再是简单的“输入-输出”而是真正的“创造”。这篇文章就是带你从零开始走进这个可视化节点编程的世界。我们会手把手教你配置环境把SD v1.5模型加载进来并搭建几个实用的高级工作流。准备好了吗让我们开始这场从“使用者”到“架构师”的升级之旅。1. 环境准备搭建你的ComfyUI实验室工欲善其事必先利其器。在开始搭积木之前我们得先把工作台准备好。别担心过程比你想的要简单。1.1 获取与启动ComfyUI首先你需要把ComfyUI弄到你的电脑上。最推荐的方式是从它的官方GitHub仓库直接获取。打开你的命令行工具比如Windows的PowerShell或CMDMac/Linux的终端找一个你喜欢的文件夹执行下面的命令git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI克隆完成后进入目录你会看到一堆文件。接下来是安装依赖。ComfyUI贴心地准备了安装脚本。对于大多数用户直接运行这个命令就行python -m pip install -r requirements.txt这个过程可能会花点时间取决于你的网速。安装完成后激动人心的时刻就到了——启动它。在同一个目录下运行python main.py如果一切顺利你会在命令行看到一些启动日志最后会告诉你一个本地地址通常是http://127.0.0.1:8188。打开你的浏览器输入这个地址一个充满网格和空白的工作区就会出现在你眼前。这就是你的ComfyUI画布了。1.2 引入核心“原料”SD v1.5模型现在工作台有了但还没有“颜料”和“画笔”。我们需要把Stable Diffusion v1.5模型放进来。假设你已经通过一键部署等方式获得了stable-diffusion-v1-5-archive相关的模型文件通常包括一个核心的扩散模型文件比如v1-5-pruned-emaonly.safetensors和一个对应的VAE文件。找到模型目录在ComfyUI的文件夹里你会看到一个叫models的文件夹。点进去再进入checkpoints子文件夹。这里就是存放核心模型的地方。放置模型文件把你准备好的SD v1.5模型文件.ckpt或.safetensors格式复制粘贴到这个checkpoints文件夹里。放置VAE文件可选但推荐VAE负责解码和改善图像细节。同样在models文件夹下找到vae子文件夹把你的VAE文件放进去。放好之后重启一下ComfyUI在命令行按CtrlC停止再重新运行python main.py。刷新浏览器页面点击右侧的“加载”按钮你应该能在模型列表中看到你刚放进去的SD v1.5模型了。至此你的数字画室就正式开业了。2. 初识节点从零搭建第一个工作流第一次看到ComfyUI的界面可能会觉得有点懵——满屏的网格几个孤零零的按钮。别急我们从一个最简单的“文生图”流程开始理解节点的基本玩法。2.1 核心节点“三剑客”一个最基础的文本生成图像流程离不开三个核心节点加载模型告诉ComfyUI用哪个模型来工作。输入提示词告诉模型我们想要什么。执行生成让模型开始干活并输出图片。在空白处右键点击选择“添加节点”。我们一步步来首先找到load_checkpoint节点通常在loading分类下。添加它这就是我们的模型加载器。在节点里选择你刚放进去的SD v1.5模型。接着添加两个CLIP Text Encode节点在conditioning分类下。一个用于输入正向提示词positive描述你想要的内容另一个用于输入反向提示词negative描述你不想要的内容。然后添加一个KSampler节点在sampling分类下。这是整个流程的“发动机”负责控制采样步数、采样方法等生成参数。最后添加一个VAE Decode节点在latent分类下和一个Save Image节点在image分类下。2.2 连接节点让数据流动起来节点是孤立的需要用线把它们连起来数据才能像流水一样通过。连接的方法很简单点击一个节点的输出“圆点”拖拽到另一个节点的输入“圆点”上。按照这个逻辑来连接将load_checkpoint节点的MODEL输出连接到KSampler节点的model输入。将load_checkpoint节点的CLIP输出分别连接到两个CLIP Text Encode节点的clip输入。在两个CLIP Text Encode节点的文本框里分别输入你的正向和反向提示词。然后将它们的CONDITIONING输出分别连接到KSampler节点的positive和negative输入。还需要一个Empty Latent Image节点latent分类来定义生成图片的尺寸和批次。将其输出连接到KSampler的latent_image输入。将KSampler节点的LATENT输出连接到VAE Decode节点的samples输入。将load_checkpoint节点的VAE输出或者如果你用了单独的VAE文件就用load_vae节点连接到VAE Decode节点的vae输入。最后将VAE Decode节点的IMAGE输出连接到Save Image节点的images输入。点击右侧的“提示词队列”按钮等待片刻你的第一张由节点工作流生成的图片就会保存到ComfyUI的输出文件夹了虽然步骤看起来多但这就是ComfyUI的核心逻辑可视化地定义数据处理管道。3. 进阶实战构建复杂图像生成管线掌握了基础流程我们就可以玩些更酷的了。下面我们来搭建两个实用且强大的高级工作流体验一下节点编程的精准控制力。3.1 高清修复Hires. Fix工作流在WebUI里高清修复可能就是一个勾选项。但在ComfyUI里你能完全掌控它的过程。高清修复的本质是“先小图构图再大图细化”。搭建基础文生图流程就像第二部分那样先搭建一个生成小尺寸图片例如512x512的完整流程。添加放大节点在KSampler我们称它为“初代采样器”之后插入一个Latent Upscale节点在latent分类下。将初代采样器的LATENT输出连接到这里并设置你想要的放大倍数如2倍。进行二次细化采样这是关键。再添加一个KSampler“二代采样器”。将load_checkpoint的MODEL也连给它。同时将上一步Latent Upscale输出的放大后的潜变量连接到二代采样器的latent_image输入。重设提示词强度对于二次采样我们通常不需要那么强的提示词引导。这里可以引入一个Conditioning (Set Area)节点或者更简单地使用CLIP Text Encode但理解其作用。实际上我们可以直接将初代采样器用的同一个positive和negativeconditioning 连接到二代采样器但通过降低KSampler中的denoise降噪强度参数来控制细化程度例如设为0.4-0.5。denoise越低就越尊重初始潜变量只做轻微修复。完成输出将二代采样器的输出连接到VAE Decode和Save Image。这个工作流让你清晰看到图片是如何先生成低分辨率版本再被放大最后通过二次采样补充细节的。你可以自由调整两个采样器的步数、方法以及关键的降噪强度以达到最佳效果。3.2 局部重绘Inpainting工作流想只修改图片的某个部分比如给人像换件衣服或者去掉画面中不想要的物体局部重绘是必备技能。准备原始图片和蒙版你需要两张图一张原始图一张黑白蒙版图白色区域表示需要重绘的部分黑色区域表示保留。你可以用Load Image节点加载原始图片用另一个Load Image节点加载蒙版。编码输入图像添加一个VAE Encode节点。将原始图片节点和VAE模型连接进去得到原始图像的潜变量表示。应用蒙版添加一个Set Latent Noise Mask节点。将上一步的潜变量和蒙版图片节点连接进去。这个节点会“挖掉”潜变量中对应蒙版白色区域的信息为后续生成留下空间。构建重绘流程接下来的流程和文生图类似。你需要load_checkpoint,CLIP Text Encode(输入针对重绘区域的描述)以及一个KSampler。关键连接将Set Latent Noise Mask节点的输出一个被掩码的潜变量连接到KSampler的latent_image输入。这样采样器就会在“被挖掉”的区域里根据你的提示词重新生成内容而其他区域则保持原样。解码与保存最后连接VAE Decode和Save Image。通过这个工作流你可以精确控制修改的范围和内容实现“指哪打哪”的编辑效果。调整蒙版的羽化边缘还能让生成的内容与原图融合得更自然。4. 效率提升工作流的保存、管理与分享搭建了一个精妙的工作流当然要把它保存下来方便下次使用或者分享给朋友。4.1 保存与加载工作流在ComfyUI界面右侧工具栏提供了非常方便的流程管理功能。保存点击“保存”按钮给你的工作流起个名字比如sd15_hires_fix.json它会以JSON格式保存到本地。这个文件很小只记录了节点的类型、参数和连接关系不包含模型。加载点击“加载”按钮选择之前保存的JSON文件整个复杂的工作流瞬间就会还原到画布上所有连接线都一丝不差。保存为模板你还可以将当前工作流保存为一张预览图JSON的模板。点击“保存模板格式”会生成一个.png文件。神奇的是当你把这张PNG图片再拖回ComfyUI的画布时它不仅能显示图像还能自动解析并重建里面完整的工作流这是分享工作流最酷的方式。4.2 探索与复用社区资源你不需要所有工作流都从零开始搭建。ComfyUI有一个非常活跃的社区许多高手会分享他们精心设计的工作流。平台可以去像Civitai、Reddit的ComfyUI板块或者一些AI绘画的Discord频道寻找资源。使用下载到的如果是JSON文件直接使用“加载”功能。如果是PNG文件直接拖进画布即可。导入后记得检查一下模型路径确保你本地有工作流所指定的模型如果没有替换成你自己的SD v1.5模型即可。学习研究别人分享的工作流是学习高级技巧最快的方法。看看他们是如何组合节点来解决特定问题比如面部修复、风格一致性、复杂构图的然后拆解、模仿最终形成自己的理解。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。