016、智能体初探:当你的AI学会用“扳手”昨天深夜调试一个文档解析Agent,遇到个诡异现象:Agent明明调用了搜索工具,返回的结果也正常,但决策时突然开始胡言乱语,说“根据我的内部知识判断…”。盯着日志看了半小时才恍然大悟——原来工具调用结果没正确拼接到prompt里。这种“工具在手却不用”的毛病,正是今天要聊的智能体核心问题。一、从“听话”到“动手”的范式转变传统大模型对话是“你说我听”模式,用户问“今天北京天气如何”,模型要么编造答案,要么老实说“我无法获取实时数据”。智能体(Agent)的突破在于给了模型一套工具箱,让它能主动说:“我需要调用天气查询工具,参数是北京。”但这里有个关键陷阱:模型并不真正“理解”工具。它只是学会了“这种问题该触发哪个工具调用”的模式匹配。调试时经常发现,稍微换个问法模型就懵了,本质是prompt设计没覆盖到这种场景。二、ReAct模式:让AI学会“三思而后行”ReAct(Reasoning + Acting)框架解决了早期智能体“盲目行动”的问题。看个典型错误案例:# 别这样写!这是典型的“行动派”Agentagent.run(