Sales Brain for Cursor:AI驱动的销售情报中枢设计与实战
1. 项目概述AI驱动的销售情报中枢如果你在销售、市场或产品岗位工作一定经历过这样的场景面对一个新客户你需要快速了解对方公司背景、梳理产品价值、准备应对异议的话术同时还得整理出针对性的销售剧本。这个过程往往意味着要在浏览器、文档、CRM和笔记软件之间反复横跳信息零散效率低下。更头疼的是团队内部的知识难以沉淀和复用新人上手慢老手也常常在重复造轮子。Sales Brain for Cursor 正是为了解决这个痛点而生。它不是一个独立的软件而是一个深度集成在 Cursor IDE 中的 AI 工作流。你可以把它理解为一个“销售情报中枢”它利用大语言模型的能力自动从公开渠道搜集、分析并结构化一家公司的所有销售相关信息最终生成一套完整、立体的销售赋能材料库。这套材料库覆盖了销售全流程所需的核心内容从公司简介、产品文档、买家画像到竞品战卡、异议处理、案例研究和销售剧本。所有内容都遵循预设的模板确保结构统一、质量可控。其核心价值在于它将原本需要数天甚至数周的人工调研和文档整理工作压缩到一次交互式对话中完成并且生成的结果可以直接用于销售实战。2. 核心设计思路与架构解析2.1 为何选择 Cursor 作为载体Sales Brain 的设计者选择 Cursor 而非一个独立的 Web 应用或 CLI 工具背后有深刻的考量。首先Cursor 本身就是一个以 AI 为核心的代码编辑器内置了强大的 AI 代理Agent能力可以理解复杂的上下文并执行多步骤任务。这为 Sales Brain 提供了一个天然的、可编程的交互环境。其次销售情报的生成过程本质上是“研究-分析-写作”的循环这与软件开发中的“编码-调试-重构”流程高度相似。在 Cursor 中你可以像编写代码一样通过自然语言指令Slash Commands来驱动整个工作流同时又能随时审查、编辑 AI 生成的 Markdown 文件这种“可编程文档”的理念非常契合。最后基于文件系统的输出结构brains/{company}/带来了极大的灵活性。所有生成的内容都是纯文本的 Markdown 文件你可以用 Git 进行版本管理用任何文本编辑器查看也便于集成到现有的知识库或 CRM 系统中。这种“无锁定”的设计避免了工具本身成为新的信息孤岛。2.2 模块化模板系统确保输出的专业性与一致性Sales Brain 的基石是其位于templates/目录下的一套模板系统。这套系统定义了十几种不同类型销售文档的标准结构。例如competitor-template.md不仅要求填写竞争对手的公司概况还强制要求进行 SWOT 分析、功能对比表以及最重要的“竞争战卡”——明确列出“我们在何种情况下能赢/会输”。这种模板化设计解决了两个关键问题质量下限保障即使 AI 的初始分析不够深入模板中预设的结构化字段如“价值驱动因素”、“量化价值表”、“ROI故事”也能引导 AI 产出具备基本框架和深度的内容避免了信息碎片化。团队协作统一当整个团队都使用同一套模板生成材料时无论是销售总监还是新人销售拿到手的战卡、用例或价值主张文档其信息维度和呈现方式都是一致的极大降低了沟通和培训成本。2.3 智能爬取与数据分层策略项目的另一个核心是位于.cursor/rules/sales-brain/scripts/scrape.py的爬虫脚本。它并非简单粗暴地抓取整个网站而是采用了分层和策略化的抓取逻辑。第一层基础信息抓取。当输入公司官网 URL 后脚本会优先抓取首页提取标题、元描述、各级标题H1-H3和关键链接如“关于我们”、“产品”、“定价”、“联系我们”。这些信息构成了对公司最初步的认知。第二层定向深度抓取。通过--subpages参数脚本会沿着首页发现的关键链接再深入抓取一层子页面如产品详情页、案例研究页。同时通过-f参数可以指定跟踪特定类型的链接如aboutproducts实现更精准的信息收集。第三层数据复用与避免重复。所有抓取到的原始数据都会以 JSON 格式保存在brains/{公司标识}/scraped/目录下。工作流在运行时会优先检查该目录下是否已有相关数据如products.json。如果存在则直接加载使用避免对同一网站进行不必要的重复请求既节省时间也体现了对目标网站资源的尊重。注意在实际使用中务必遵守目标网站的robots.txt协议并合理设置请求间隔代码中可配置time.sleep避免因请求过快给对方服务器造成压力这既是法律合规要求也是基本的职业道德。3. 从零到一完整工作流实操指南3.1 环境准备与项目初始化首先你需要一个已经安装并配置好 Cursor IDE 的环境。Sales Brain 是一个开源项目因此第一步是克隆仓库到本地。# 克隆项目仓库 git clone https://github.com/ertra/sales-brain-for-cursor.git cd sales-brain-for-cursor # 运行安装脚本该脚本会创建Python虚拟环境并安装依赖 ./setup.sh # 激活虚拟环境Linux/macOS source venv/bin/activate # 如果是Windows使用venv\Scripts\activate # 在 Cursor 中打开本项目文件夹 # 你可以通过命令行 cursor . 或在 Cursor 的图形界面中打开激活虚拟环境是关键一步它确保了项目依赖如requestsbeautifulsoup4markdown等被隔离安装不会与你系统全局的 Python 环境冲突。完成这一步后你的 Cursor 就具备了运行 Sales Brain 所有脚本的能力。3.2 启动你的第一个销售情报项目在 Cursor 中打开项目后你会注意到左侧文件树中有一个.cursor文件夹里面定义了所有的规则和命令。现在在 Cursor 的聊天面板或编辑器任意位置输入核心命令/startAI 代理会被触发并开始与你进行交互式对话。它会首先向你询问两个最关键的信息目标公司名称例如 “Acme Corp”。公司官网 URL例如 “https://www.acme.com”。实操心得这里有一个容易被忽略但至关重要的技巧——务必使用公司的主域名根域名而不是某个具体的产品页或博客页。因为爬虫脚本的“发现”逻辑是基于首页链接展开的从主域名开始能确保信息抓取路径最完整。例如用https://www.salesforce.com而不是https://www.salesforce.com/products/crm。提供信息后AI 会启动一个包含 12 个阶段的自动化工作流。这个过程是半自动的AI 会在每个阶段结束后暂停等待你的确认或修改然后再进入下一阶段。这保证了人类始终在循环中能够把控方向和质量。3.3 十二阶段工作流深度拆解这十二个阶段构成了从原始信息到结构化知识的完整流水线。理解每个阶段的目的能帮助你在 AI 执行时做出更有效的干预。阶段 1 2公司研究与产品探测AI 会调用爬虫脚本从你提供的官网抓取信息并尝试自动识别该公司的主要产品线。例如对于一家 SaaS 公司它可能会识别出“基础平台”、“高级分析模块”、“移动端应用”等。你需要仔细审核 AI 识别的产品列表手动添加任何被遗漏的产品或合并那些被错误拆分的功能模块。阶段 3 4目标客户与买家画像基于公司公开信息如客户案例、博客AI 会推断其目标客户公司画像和具体的买家角色。例如它可能总结出目标客户是“员工规模在 200-2000 人的科技公司”并创建出“销售副总裁”、“市场总监”、“IT 运维经理”等角色档案。这里是你注入行业经验的关键点AI 的推断可能流于表面你需要根据你的市场认知修正或丰富这些画像的细节比如补充该角色在采购周期中的决策权重、他们常用的行业术语等。阶段 5 6 7痛点、价值主张与用例这是将产品功能转化为客户价值的核心环节。AI 会尝试为每个“产品-角色”对推导出对应的痛点、价值主张和具体使用场景。例如为“销售副总裁”和“对话智能平台”这个组合生成“无法量化团队沟通质量”的痛点和“通过 AI 分析销售通话提升赢单率和新人培训效率”的价值主张。你需要重点检查价值主张是否足够具体、可量化避免空泛的表述。阶段 8竞争情报AI 会搜索并分析公开的竞争对手信息生成竞争战卡。这是信息密度最高的部分之一。你需要特别关注“何时我们能赢/何时我们会输”这个部分这直接指导销售人员在面对具体竞争时的策略。同时检查功能对比表是否准确必要时手动补充或修正。阶段 9 10 11异议处理、案例研究与销售剧本基于前面所有信息AI 开始生成实战工具。异议处理库应针对不同角色案例研究需要虚构基于公开信息合理推演或引用真实的客户评价销售剧本则针对特定的销售场景如“竞品置换”、“预算季末冲刺”。这是最需要人工润色的部分确保话术符合你团队的实际沟通风格剧本的步骤具有可操作性。阶段 12生成导航索引INDEX.md 与 README.md这是画龙点睛的一步。工作流最后会自动为这个公司的情报库生成两个导航文件README.md给人看的概览页包含公司标签、价值主张摘要、文件夹结构等。INDEX.md给 AI 看的“地图”它详细列出了所有文件、其内容摘要以及最重要的——“加载规则”。这条规则告诉 Cursor 的 AI 代理在讨论特定话题时应该优先加载哪些文件作为上下文。例如当讨论“定价异议”时规则会指示 AI 去加载objections/common-objections.md和value-propositions/下的相关文件。这极大地提升了后续利用这些材料进行问答、写邮件、做方案的效率。3.4 核心命令详解与高效使用技巧除了/startSales Brain 提供了一系列命令来管理你的情报库。掌握它们能让你从被动审核变为主动管理。/status {company}这是你的“仪表盘”。它不仅显示生成进度还会用“新鲜度”指标如“2天前更新”提示你哪些信息可能已经过时需要手动复查或运行/refresh。/search {company} {query}在全库中搜索关键词。例如/search acme ROI能快速找到所有提到投资回报率的相关文档在准备商务谈判时极其有用。/add product {company}当公司发布新产品时无需重新运行整个工作流。用此命令可单独为现有公司库添加新产品AI 会基于已有上下文智能生成该产品的相关文档。/generate-visualization {company}这个命令会生成一个交互式的 HTML 关系图可视化展示公司、产品、角色、用例、竞争对手之间的关联。这对于向团队新人介绍全局或在战略会议上梳理业务逻辑是一个非常有用的视觉辅助工具。注意事项/refresh命令会重新抓取所有公开信息并重新生成内容请谨慎使用因为它会覆盖你可能已经做过的人工修改。更推荐的做法是针对过时的部分使用/update company或/add competitor等具体命令进行定点更新。4. 输出物解析从文件到销售武器Sales Brain 的最终产出是一个结构清晰的目录树。理解每个文件的作用你才能更好地利用它们。4.1 核心文档类型及其应用场景文件类型核心内容主要使用场景给销售人员的价值company.md公司概况、使命、差异化、目标市场。新人培训、客户背景调研、准备初次破冰沟通。快速建立对客户公司的整体认知找到共鸣点。products/*.md产品功能、价值主张、目标客户、竞品对比表。产品培训、方案撰写、应对客户关于功能的深度提问。清晰阐述产品能做什么、为谁解决什么问题、比对手强在哪。personas/*.md角色职责、痛点、目标、采购流程、沟通偏好。制定沟通策略、准备个性化话术、进行角色扮演培训。“见人说人话”用对方角色的语言和关心的问题进行沟通。competitors/*.md竞品分析、SWOT、功能对比、竞争战卡何时赢/输。竞争性销售、制作投标文件、准备应对竞品攻击的话术。知己知彼在竞争中清晰定位知道如何攻击和防守。objections/*.md常见异议列表、标准化应对话术、预防性提问。销售模拟演练、制作话术手册、应对实际客户异议。面对拒绝时不慌有章法地化解顾虑推动流程。sales-plays/*.md特定场景下的完整销售剧本包括触发事件、执行步骤、所需资源。复制成功销售模式、组织专项销售战役、培训标准化流程。将个人经验转化为团队可复制的标准化流程提升整体赢率。4.2 INDEX.mdAI 代理的“操作系统”INDEX.md是这个体系中最精妙的设计。它不是一个简单的文件列表而是一个元数据指令集。其核心部分是“加载规则”它使用特定的格式告诉 Cursor AI当讨论 [某个主题] 时加载 [某个或某几个文件]。例如当讨论“产品演示”时加载 - products/revenue-platform.md - use-cases/consolidation.md - value-propositions/revenue-platform-sales-leader.md这意味着当销售人员在 Cursor 中向 AI 提问“帮我写一份给销售总监的 Revenue Platform 演示脚本”时AI 会自动根据这条规则将最相关的三份文档作为上下文加载进来从而生成一份内容准确、价值点突出、话术专业的演示稿。这相当于为你的销售团队配备了一位随时待命、且对公司情报了如指掌的资深顾问。4.3 维护与迭代让知识库持续生长一个静态的知识库会迅速过时。Sales Brain 的设计鼓励持续迭代。定期更新利用/status命令检查信息新鲜度每季度或竞品有重大动态时使用/update competitor等命令更新。沉淀实战经验每次成功的销售案例结束后都可以用/add case-study命令将真实的客户故事、数据和反馈录入系统。真实的案例远比 AI 生成的样本更有说服力。丰富销售剧本将团队验证有效的新的销售打法通过/add sales-play固化成剧本使团队最佳实践得以传承。管理文件关联在编辑任何文件时注意维护其“相关对象”部分。例如在一个新的用例文件中链接到相关的产品、角色和价值主张文件。这能强化知识网络让INDEX.md的加载规则更精准。5. 常见问题与实战排坑指南在实际部署和使用 Sales Brain 的过程中你可能会遇到一些典型问题。以下是我根据经验总结的排查思路和解决方案。5.1 爬虫相关问题问题AI 启动工作流后卡在“正在研究公司信息”阶段很久最后报错。可能原因 1网络问题或目标网站反爬。排查查看brains/{company}/scraping.log文件确认爬虫尝试访问了哪些 URL是否有明显的 403、404 或超时错误。解决尝试手动运行爬虫命令并增加请求头模拟浏览器或设置更长的超时时间。修改scrape.py脚本在requests.get调用中添加headers参数和timeout参数。可能原因 2网站结构复杂JavaScript 渲染。排查用浏览器检查目标页面查看页面主要内容是直接存在于 HTML 中还是通过 JS 动态加载。解决基础爬虫 (requestsBeautifulSoup) 无法处理 JS 渲染。对于这类网站需要更高级的方案如使用Selenium或Playwright。但这会大幅增加复杂度通常建议手动从官网复制关键文本粘贴给 AI 让其分析跳过自动爬取阶段。问题爬虫抓取的内容质量很差全是导航栏和页脚文字。解决这是网页抓取的常见问题。需要优化scrape.py中的内容提取逻辑。可以尝试优先提取mainarticle标签内的内容。根据标签密度和文本长度来筛选主内容区。这是一个需要一定 Python 和 HTML 知识进行调试的过程。如果技术资源有限最务实的办法还是“人工初审AI 加工”手动打开官网将核心页面的文本复制下来保存为.txt文件放在scraped/目录下然后引导 AI 基于这些文本进行分析。5.2 AI 生成内容质量问题问题AI 生成的公司描述或产品价值主张过于空泛缺乏洞察。原因AI 仅基于公开的、营销导向的网页内容进行分析难以挖掘深层信息。解决人工干预和引导是关键。在 AI 生成初稿后不要直接确认。你应该提供额外的上下文在聊天中告诉 AI 你所知的行业背景、客户常见痛点、竞争对手的软肋。提出具体修改要求例如“将价值主张聚焦在‘节省时间’上并补充一个假设的 ROI 计算案例”“在竞争分析中加入对方最近的一次负面客户评价”。利用/search命令将其他优秀案例如示例库中的revenue-io中的相关表述作为参考让 AI 学习其风格和深度。问题生成的竞品战卡信息不准确或过时。解决竞争情报是动态的。绝不能完全依赖一次性的自动生成。设立信息源要求销售团队在发现竞品新动态时及时通过/add competitor或直接编辑文件进行更新。交叉验证AI 生成的信息必须与 G2、Capterra 等第三方评测网站以及行业报告、新闻稿进行交叉验证。标注不确定性在战卡中明确区分“已验证信息”和“基于公开信息的推断”并注明信息日期。5.3 工作流与使用效率问题问题/start 工作流太长中途想修改前面阶段的内容很麻烦。解决Sales Brain 支持“断点续传”。你可以随时使用/continue {company}命令从上次中断的阶段继续。更重要的是所有中间产物都是独立的 Markdown 文件。你完全可以直接去brains/{company}/目录下找到对应的文件如personas/sales-leader.md进行手动编辑。保存后后续阶段 AI 会读取你修改后的最新内容。问题团队多人如何使用和贡献同一个公司的情报库最佳实践将sales-brain-for-cursor项目放在Git 仓库如 GitHub GitLab中进行管理。设立main分支为稳定版。每位成员在独立的功能分支上工作如feature/add-acme-competitor。通过 Pull Request 和代码审查流程来合并对brains/{company}/下文件的修改。这不仅能避免冲突还能通过审查保证内容质量。可以利用 Git 的钩子hooks或 CI/CD 流程在合并后自动重新生成INDEX.md确保导航索引始终最新。问题如何将 Sales Brain 的输出应用到实际的销售工具如 CRM、销售赋能平台中解决由于所有输出都是 Markdown 文件集成非常灵活。静态站点使用 MkDocs Docusaurus 等工具可以将整个brains/目录编译成一个内部网站供团队随时查阅。导入 CRM大多数现代 CRM如 Salesforce HubSpot都支持通过 API 或 CSV 导入数据。你可以编写简单的脚本将personas.mdcompetitors.md中的结构化数据如痛点列表、竞争差异提取出来映射到 CRM 的自定义字段中。聊天机器人利用INDEX.md中的加载规则你可以构建一个逻辑当内部聊天机器人如基于 Slack 或 Teams收到销售人员的提问时自动检索并引用 Sales Brain 库中的内容来回答。Sales Brain for Cursor 的本质是将大语言模型从一种“问答玩具”转变为一种“知识工程系统”。它强迫你将零散的经验、公开的信息和团队的智慧结构化成机器可读、可推理的格式。这个过程本身就是对销售方法论的一次重要梳理和沉淀。最终的产出物无论是给新人培训的文档还是给 AI 代理的指令其价值都远超工具本身。它代表了一种更高效、更可扩展的销售知识工作方式。