就在昨天Claude Code被开源全网都在疯转Claude Code源码泄露的时候据传是下面这位大神第一时间发现的这是一位UC Berkeley计算机博士辍学者研究方向为程序分析、Web安全与分布式系统。作为安全界的「赏金猎人」他累计漏洞赏金收入约190万美元同时也是一位连续创业者曾以联合创始人兼CTO身份创立智能合约安全自动化测试公司FuzzLand目前担任Solayer Labs核心开发。此前他在Salesforce任安全工程师负责静态代码分析、内网扫描与数据管道等工作。简单来说他就是一位专门「找漏洞」的专家因此能第一时间发现Anthropic的npm配置失误从一个59.8MB的.map文件中还原出51万行源码。下面这位大神则比人先快一步第一时间build第一时间支持完全本地化免费使用零 API 费用5 分钟将 AI 程序员装进本地电脑无限次使用、100% 隐私无需担心 Anthropic API 费用、速率限制或代码被上传云端。直接在 Mac / Windows 上运行隐私拉满不限次数随时写代码。背景传统 Claude Code 虽强大但依赖 API 密钥、需付费、代码上云对敏感项目不够友好。如今 Ollama 官方新增 Anthropic Messages API 支持让 Claude Code 可直接对接本地模型打造一个完全离线的 AI 编码代理具备读文件、改代码、执行命令等能力。即便没有高端显卡也可流畅运行 7B~30B 的编码专用模型满足日常开发、调试、脚本生成等需求。5 分钟上手教程保姆级准备工作2 分钟访问 ollama.com 下载并安装 OllamaMac / Windows 均支持安装后自动后台运行。打开终端输入ollama --version验证安装成功。步骤 1拉取本地模型配置一般16~32GB 内存推荐qwen3-coder:7b或gemma2:9b高配设备RTX 4090 / Mac M 系列高配推荐qwen3-coder:30b或 GLM-4 系列复制执行以下命令以 7B 为例ollama pull qwen3-coder:7b步骤 2安装 Claude Code终端执行官方安装命令curl -fsSL https://claude.ai/install.sh | sh步骤 3将 Claude Code 指向本地 Ollama推荐方式自动配置ollama launch claude --model qwen3-coder:7b或手动设置环境变量export ANTHROPIC_BASE_URLhttp://localhost:11434 export ANTHROPIC_AUTH_TOKENollama claude --model qwen3-coder:7b步骤 4测试运行进入项目文件夹输入claude然后直接说“帮我创建一个 Hello World 网站”即可看到 Claude Code 自动分析目录、创建文件、执行操作全程本地运行流畅顺滑。注意事项 进阶 Tips模型选择编码能力以 Qwen3-Coder 和 GLM 系列最佳Gemma2 次之。后续 Ollama 将持续支持更多工具调用能力强的模型。硬件要求7B 模型可在普通笔记本运行30B 模型建议配备 GPU 或 32GB 以上内存。隐私优势所有数据处理均在本地完成无需联网。局限说明本地模型的智能水平略逊于云端 Claude Opus但对绝大多数开发任务已足够且完全免费。2026 年AI 本地化正全面加速。从 ChatGPT 到 Claude再到如今的 Claude Code 本地版未来写代码或许不再需要为大厂的云端服务支付高昂费用。附上地址链接https://pan.quark.cn/s/42b9ba892bb7