本文将带你从零开始在 macOS 上部署 ComfyUI涵盖 Intel 和 Apple Silicon 两种芯片的配置方案并详解从安装到第一个工作流的完整过程。写在前面为什么要在 Mac 上折腾 ComfyUI在 AI 绘画的世界里NVIDIA 显卡CUDA一直是“一等公民”。然而作为 Mac 用户我们常常面临一个尴尬的局面拥有一台设计精美、屏幕顶级的设备却似乎被 AI 生态拒之门外。但其实ComfyUI 在 macOS 上的支持远比想象中要好。ComfyUI 是一个基于节点的 Stable Diffusion 界面。不同于 WebUI 那种“一键生成”的黑盒模式ComfyUI 通过节点连接的方式让你像搭积木一样构建图片生成的流水线。虽然在 Mac 上我们无法享受 CUDA 带来的极致速度但借助MPSMetal Performance Shaders的统一内存架构Apple Silicon 芯片M1/M2/M3甚至能在运行大模型时展现出比同级别 N 卡更从容的内存优势。本文将带你绕过那些“天坑”无论是 Intel 老将还是 Apple Silicon 新兵都能跑出第一张图。 环境准备与硬件须知在开始敲命令之前先认清你的 Mac 类型这决定了你的启动姿势Apple Silicon M1/M2/M3/M4首选。利用统一内存显存和内存是共享的。这意味着如果你有 32GB 内存就相当于有 32GB“显存”这对运行 SDXL 或 Flux 模型非常有利。Intel Mac AMD Radeon可行但折腾一些。AMD 显卡在 macOS 下的驱动支持虽然不如 CUDA但通过特定优化如使用 Intel 专用整合包依然可以流畅运行。Intel Mac 仅集成显卡体验有限。勉强能跑但生成大图极易报错OOM建议使用 CPU 模式或放弃治疗。 第一步安装 ComfyUI为了方便管理和更新强烈不建议手动克隆 GitHub 仓库去解决依赖冲突。对于 Mac 用户有以下几种选择方案 A使用官方安装包适合 Apple Silicon / 进阶用户访问 ComfyUI 的 GitHub Releases 页面下载mac版本的压缩包通常是ComfyUI_macos_arm64.dmg或类似名称。解压到“应用程序”或任意文件夹。这其实就是“绿色版”核心文件都在ComfyUI文件夹内。方案 B使用社区整合包适合 Intel Mac / 小白尝鲜如果你不想折腾依赖和环境变量可以找一些社区打包好的“一键包”。例如针对 Intel Mac 的Krita ComfyUI 整合包这种包通常预置了所有依赖和常用插件解压即用。这种方式不仅省事还能完美解决 AMD 显卡的识别问题。⚙️ 第二步核心配置与启动1. 放置模型打开 ComfyUI 文件夹找到models目录你会看到熟悉的子文件夹checkpoints存放主模型如sd_xl_base_1.0.safetensors,flux1-dev.safetensors。loras存放 LoRA 模型。vae存放 VAE 模型用于改善图片色彩和细节。controlnet存放 ControlNet 模型。2. 启动指令打开终端 Terminalcd到 ComfyUI 目录运行# 对于大多数情况直接运行 main.py python main.py针对 Mac 的特殊参数优化为了在 Mac 上获得最佳性能且不爆内存建议在启动时加上参数# 针对 Apple SiliconM系列芯片 python main.py --force-fp16 # 针对 Intel Mac 或显存紧张的情况 python main.py --lowvram --force-fp16--force-fp16强制半精度计算极大降低内存占用画质损失极小Mac 用户必加。--lowvram在模型不用时将其从内存中卸载适合 8GB 内存的用户。启动成功后终端会显示http://127.0.0.1:8188浏览器打开它你就看到了 ComfyUI 的工作界面。 第三步安装 Manager 插件管理器ComfyUI 如果没有插件管理器体验会大打折扣。在终端中cd到ComfyUI/custom_nodes/目录。运行以下命令bash git clone https://github.com/ltdrdata/ComfyUI-Manager.git重启 ComfyUI。界面右侧会出现一个“Manager”按钮。通过 Manager你可以直接在网页里搜索、安装缺失的节点甚至批量下载模型。️ 第四步搭建你的第一个工作流新手常常被 ComfyUI 的“蜘蛛网”吓到。没关系我们先按部就班地拖拽一个最基础的文生图流程。第一步加载模型- 在空白处双击搜索Checkpoint Loader。 - 选择你刚刚放进来的大模型。第二步添加提示词- 双击添加CLIP Text Encode正面提示词。 - 再添加一个CLIP Text Encode负面提示词。 - 将Checkpoint Loader的 CLIP 输出口连接到这两个节点的 CLIP 输入口。第三步设置画布- 双击添加Empty Latent Image。 - 设置宽高例如 512x512或 SDXL 的 1024x1024。第四步采样与解码- 双击添加KSampler。连接模型、正面、负面和 Latent。 - 双击添加VAE Decode。连接 KSampler 的 Latent 和 Checkpoint 的 VAE。 - 双击添加Save Image。连接 VAE Decode 的 IMAGE 输出。第五步点击 “Queue Prompt”- 如果一切顺利几秒或几分钟后你的第一张 AI 图片就诞生了![最简单的ComfyUI工作流示意图模型加载器 - 文本编码 - 采样器 - VAE解码 - 保存图像]关键节点参数解析Mac 特供版在 KSampler 中参数的设置决定了出图效果和速度|参数|推荐值 Mac|备注|| — | — | — ||Steps|20-30|Mac 速度较慢20步通常够用追求极致质量可开30。||CFG|7.0|提示词相关性7是比较平衡的值。Flux 模型通常设为 1.0。||Sampler|dpmpp_2m|质量和速度的平衡点。euler更快但细节少一点。||Scheduler|karras|配合 DPM 系列采样器效果很好。||种子Seed|随意|固定种子可复现图片改变种子随机生成。| Mac 用户进阶优化与避坑指南1. 内存不足 OOM 怎么办这是 Mac 用户最常见的报错。解决方法优先级如下降低分辨率跑 1024x1024 爆了试试 832x1216 或 896x1152保持像素总数相近即可。开启--lowvram模式这会牺牲一点点速度换取运行稳定性。使用 Tiled VAE安装ComfyUI-Tiled-VAE节点。解码超大图时它会分块处理显存占用瞬间降低 90%。这对于 Mac 跑高清修复简直是神器2. 速度太慢怎么办Apple Silicon务必加上--force-fp16。使用--use-split-cross-attention或--use-sage-attention如果你装了相关包也能提速。Intel Mac可以考虑使用Intel oneAPI加速或者直接使用上文提到的Krita ComfyUI X86 整合包作者优化了 AMD 显卡的指令集实测速度有明显提升。3. 为什么生成的图是黑的通常是因为VAE 没加载对。很多大模型不自带 VAE或者自带的 VAE 与 Mac MPS 后端兼容性不好。解决方案 单独下载一个 VAE 文件如vae-ft-mse-840000-ema-pruned.safetensors在节点中单独加一个VAE Loader把它接到VAE Decode上而不使用 Checkpoint 自带的 VAE。 写在最后ComfyUI 在 macOS 上虽然做不到 Windows NVIDIA 那种“极速狂飙”但它足够稳定、强大并且能充分利用 Mac 的大内存优势来跑 Flux 这类超大模型。当你习惯了 ComfyUI 的逻辑严谨性和工作流复现性后可能就再也回不去 WebUI 了。希望这篇教程能帮助你在舒适的 macOS 生态中迈出 AI 绘画的第一步。