1. 人工智能定义的迷思为什么我们总在“盲人摸象”干了这么多年技术也写了不少关于人工智能的科普和行业分析我发现一个挺有意思的现象无论是技术圈内的开发者还是圈外的普通用户甚至是政策制定者当被问到“到底什么是人工智能”时给出的答案常常是五花八门甚至自相矛盾。这感觉就像一群人在描述一头大象有人摸到了腿说是柱子有人摸到了耳朵说是扇子虽然都触及了部分真相但离完整的图景相去甚远。这种定义的模糊性远不止是一个学术上的咬文嚼字。它实实在在地影响着我们如何设计、评估、监管和应用这项技术。一个算法工程师眼里的“智能”可能是一套在特定数据集上达到99%准确率的神经网络模型一个产品经理理解的“智能”或许是能流畅对话、理解用户意图的聊天机器人而一个社会学家担忧的“智能”则可能指向那些能替代人类岗位、影响社会结构的自动化系统。这些视角都没错但它们都像是从不同窗口窥视同一个房间看到的风景截然不同。问题的核心在于长久以来我们定义人工智能的方式过于“单向度”了。要么是纯粹理性主义的视角把它看作一个追求最优解的“理性智能体”只关心其技术实现和逻辑自洽要么是纯粹人文主义的视角把它当作一面映照人类自身的镜子用“是否像人”作为唯一的评判标准。这两种视角的割裂导致了对人工智能的理解始终存在一个巨大的断层技术实现与社会价值之间缺少一座稳固的桥梁。这正是我们需要引入“社会技术”视角的根本原因——它要求我们同时握住技术的“锤子”和社会的“钉子”理解锤子如何被锻造更要看清钉子需要被钉在何处。2. 理性主义视角作为“理性智能体”的AI当我们从纯技术的、理性主义的透镜去审视人工智能时我们实际上是在尝试为“智能”建立一个形式化的、可计算的模型。这个视角的起点非常清晰智能就是理性地思考和行动的能力。2.1 核心特征感知、推理与自主行动在经典的人工智能教科书如斯图尔特·罗素和彼得·诺维格的《人工智能现代方法》中人工智能被定义为一个“智能体”。这个智能体具备几个关键特征它能感知环境通过传感器或数据输入能基于感知信息进行推理并能采取行动以最大化其预设目标的实现概率。这里的“理性”指的是在给定知识、资源和目标约束下选择最优行动方案的能力。举个例子一个用于预测设备故障的机器学习模型。它的“感知”是来自传感器的温度、振动、电流等时序数据它的“推理”是基于历史故障数据训练出的模型计算当前数据模式与故障模式之间的关联概率它的“行动”可能是输出一个“高风险”预警信号。从理性主义视角看只要这个模型在统计意义上能比随机猜测或简单规则更准确地预测故障它就在执行一项需要智能的任务。2.2 技术实现的谱系从规则到学习理性主义框架下人工智能的技术实现是一个广阔的谱系。在一端是基于符号和逻辑的AI有时被称为“老派AI”。它依赖人类专家将知识编码成明确的规则例如“如果温度超过阈值X且振动频率在Y范围内则触发警报”。专家系统是这方面的典型代表。它的优势是决策过程透明、可解释但瓶颈在于知识获取——如何将人类专家那庞大、模糊、依赖语境的经验完整且无矛盾地转化为计算机可执行的规则这本身就是个极其困难的AI问题。在另一端是当今主流的基于统计学习和连接的AI。它不预设明确的规则而是让机器从海量数据中自行发现模式。深度学习神经网络是其中的集大成者。它通过多层非线性变换自动学习从原始数据如图像像素、文本词向量到高级抽象概念如“猫”、“积极情感”的映射。这里的“理性”体现在模型通过优化算法如梯度下降不断调整内部参数以最小化预测误差。这个过程更接近于“曲线拟合”的复杂版本但其产生的预测能力在图像识别、自然语言处理等领域达到了前所未有的高度。2.3 理性主义的困境技术灰区与目的缺失然而纯粹的理性主义定义面临两个棘手的困境。首先是技术灰区。如果我们严格定义“能感知、推理、行动的智能体”那么一个简单的线性回归程序算AI吗它感知数据输入变量通过最小二乘法推理出变量间关系优化目标函数并输出预测值行动。按照形式定义它似乎符合。但直觉告诉我们这和我们谈论的“智能”相去甚远。区别在哪里可能在于“概念学习”的能力。线性回归只是拟合预设的线性关系而一个深度神经网络能从像素中“领悟”出“猫”这个概念。但这个界限是模糊的随着技术发展更复杂的回归模型如带有自动特征选择的LASSO也开始具备某种程度的学习能力。理性主义定义在追求普适性的同时难以清晰划定技术边界。更根本的困境在于目的缺失。理性主义可以完美描述一个系统“如何”工作但无法回答“为何”要这样工作。一个下围棋的AI其目标是赢棋一个推荐视频的AI其目标是最大化用户观看时长。但这些目标本身是技术中立的甚至可能与社会福祉相悖例如为追求时长而推荐低俗内容。理性主义定义将AI视为一个追求给定目标的“黑箱”却对这个目标的价值取向、伦理后果和社会影响保持沉默。它只关心机器是否“正确地做事”而不关心它做的是否是“正确的事”。3. 人文主义视角作为“人类镜像”的AI与理性主义的内省式定义不同人文主义视角将目光投向外部的参照系——人类自身。它最经典的表述来自1956年达特茅斯会议的提案“如果人类表现出某种行为可被称为智能那么让机器表现出这种行为就是人工智能。” 图灵测试更是将这一思想实验化如果一台机器能通过文本对话让人类误以为它是另一个人那么它就可以被认为是智能的。3.1 动态的期望智能标准的“通货膨胀”人文主义视角一个极具洞察力的贡献是揭示了“智能”定义的动态性和相对性。什么算“智能”并非一个永恒不变的客观标准而是随着时间、语境和人类认知水平变化而变化的“社会期望”的函数。一个生动的例子是国际象棋程序。1997年“深蓝”击败卡斯帕罗夫时公众舆论普遍将其视为人工智能的里程碑是机器拥有“智能”的证明。然而今天任何一个智能手机上的免费象棋App都能轻松击败人类顶尖棋手我们却不再认为下象棋是“智能”的典型标志了。它变成了一项纯粹的计算任务。同样光学字符识别、垃圾邮件过滤这些曾经的前沿AI技术如今都已“褪去智能光环”成为司空见惯的基础工具。这种现象被称为“AI效应”或“智能标准的通货膨胀”一旦一项任务被计算机掌握它就不再被视为真正智能的体现。这意味着人工智能的边界并非由技术本身静态划定而是由人类社会与技术互动中产生的、不断演进的期望所共同塑造的。我们今天对大型语言模型感到惊叹部分原因是我们对“流畅对话”仍抱有较高的智能期望。或许若干年后当与AI进行哲学辩论变得和搜索引擎查询一样平常时我们又会将“智能”的标签贴向新的、尚未被征服的领域。3.2 核心目的自动化与增强从人文主义视角追问“我们为何需要人工智能”答案直接指向其社会价值自动化人类劳动和增强人类智能。这是AI技术最根本的人类目的。自动化关注的是替代。将重复性、流程化、高强度的体力或认知劳动交给机器把人类从枯燥、危险或低效的工作中解放出来。从工厂的机械臂到财务报销的自动化审核都属于这一范畴。其核心价值在于提升效率、降低成本和减少人为错误。增强则强调协作与互补。它不是简单地取代人类而是作为“副驾驶”或“能力放大器”帮助人类更好地完成那些需要创造力、战略判断和复杂沟通的任务。例如设计师使用AI生成工具快速获得灵感草图医生借助AI影像辅助系统更精准地识别病灶研究员利用AI梳理海量文献并发现潜在关联。在这里AI的价值在于扩展了人类认知的边界让我们能做到以前无法独自完成的事情。哈佛商学院的一项田野实验Dell‘Acqua等2023生动展示了这种“增强”效应。研究让咨询顾问使用GPT-4来完成一系列商业分析任务。结果发现AI并未均匀地提升所有参与者的表现。对于原本技能较弱的顾问AI主要起到了“均衡器”的作用帮助他们达到平均水平而对于顶尖的顾问AI则成为了“乘数”将他们的优秀想法更快、更完善地呈现出来使其产出质量提升得更多。这揭示了AI与人类协作的复杂图景它不仅是工具更是能改变工作模式和能力分布的社会技术系统。3.3 人文主义的局限主观性与技术黑箱尽管人文主义视角将AI拉回到“为人服务”的轨道上但它也有其固有的模糊性。以“像人一样”为标准本身就是一个高度主观的判断。不同文化、不同个体对于“何为像人”的理解千差万别。一个在西方文化中显得幽默风趣的聊天机器人在东方文化语境下可能会被评价为轻浮失礼。更重要的是当AI系统基于复杂的深度学习模型做出决策时其内部运作机制往往是一个难以理解的“黑箱”。我们可能欣赏它做出的精准医疗诊断但无法理解它为何做出这个诊断。当AI的“行为”结果令人满意但“思考”过程完全不可追溯时我们还能心安理得地用“像人一样”来评价它吗人类的智能通常伴随着至少是自我宣称的理由和意图而当前许多AI系统缺乏这种可解释性。这使得纯粹以结果为导向的人文主义评价在涉及重大责任和伦理的领域如司法、医疗面临严峻挑战。4. 走向融合一个社会技术定义框架的构建理性主义提供了技术的“骨骼”清晰但冰冷人文主义注入了目的的“血液”温暖却流动。要理解一个活生生的人工智能系统我们必须将两者结合起来这就是社会技术系统的视角。它认为任何有影响力的技术都不仅仅是硬件和软件的集合而是技术组件与使用它的个人、组织、社会规范、法律框架紧密交织、共同演化的复杂整体。4.1 社会技术定义的三重维度基于这一视角我们可以尝试构建一个更具包容性和实践指导意义的人工智能社会技术定义。这个定义需要同时涵盖三个不可分割的核心维度第一技术功能维度从数据处理到概念生成。这是定义的基石。AI系统首先是一个数字机器系统它能处理输入数据、信号通过算法进行推理并生成输出预测、决策、内容。关键在于它超越了传统的信息处理系统如数据库查询具备一定程度的概念学习和自主适应能力。它不仅能处理“是什么”数据还能推断“可能是什么”模式、概念并能根据新数据或环境反馈调整自身行为。这将其与执行固定流程的自动化软件区分开来。第二人类目的维度价值创造的锚点。技术功能必须指向明确的人类目的。AI的核心目的在于通过自动化和/或增强来创造价值。这要求我们在设计、部署和评估任何一个AI系统时都必须不断追问它自动化了哪些人类劳动释放出的生产力流向何处它增强了人类的哪些能力这种增强是普惠的还是加剧了分化目的是技术的意义所在也是其获得社会接纳和资源投入的根本理由。第三动态期望维度社会认知的调节器。这是连接技术与目的的动态桥梁。社会对AI的期望并非一成不变它随着技术演示、媒体报道、实际应用体验乃至科幻文化而不断演变。这些期望深刻影响着技术研发的方向投资者和开发者会追逐期望高的领域、公众接受的程度期望过高易导致幻灭过低则可能阻碍有益技术的应用以及监管政策的松紧。一个成功的社会技术定义必须为这种动态的期望留出空间承认“智能”是一个随着人机协同边界移动而变化的相对概念。4.2 定义示例与解读综合以上三个维度一个初步的社会技术定义可以表述为人工智能AI指的是基于数字机器的系统它处理输入信息推断概念并为显性或隐性的目标生成输出。人们可以预期它能以不同程度的自主性感知并影响其环境。实现这些目标的目的在于自动化人类劳动和/或增强人类智能。让我们拆解这个定义如何体现三重维度“处理输入、推断概念、生成输出”和“以不同程度的自主性感知并影响环境”描述了其技术功能强调了概念学习和环境交互能力。“为显性或隐性的目标”和“目的在于自动化人类劳动和/或增强人类智能”明确了其人类目的将技术锚定在价值创造上。“人们可以预期……”和“不同程度的自主性”则引入了动态期望承认社会对AI能力的认知和接受度是变化的、分级的。这个定义并非完美无缺的终极答案但它提供了一个更具操作性的框架。它提醒我们在讨论一个AI系统时不能只问“它的准确率是多少”技术功能还要问“它用来解决什么问题、为谁创造价值”人类目的以及“用户和社会对它有何种期待与担忧”动态期望。5. 实践启示从定义到行动一个清晰的社会技术定义不仅仅是理论上的澄清更能为AI的设计者、管理者、使用者和监管者提供切实的行动指南。5.1 对设计者与开发者的启示负责任的创新对于身处一线的工程师和产品经理社会技术视角要求将伦理和目的思考“左移”嵌入到开发流程的最早期。目的先行在写第一行代码之前团队必须就系统的核心目的达成共识。我们是要完全替代某个岗位还是增强现有员工的能力这个目的是否符合更广泛的社会价值如公平、安全、福祉例如开发一个招聘简历筛选AI如果纯粹以“自动化筛选、提高效率”为目的可能会无意中复制历史数据中的偏见。而如果以“增强HR识别多元化人才的能力”为目的设计思路就会转向如何用AI发现那些被传统标准忽略的潜力候选人。期望管理在产品设计和宣传中需要谨慎管理用户期望。过度渲染“全智能”、“超人”会导致用户失望和滥用过于保守则可能让用户低估其价值。清晰的沟通关于系统能做什么、不能做什么、在何种条件下工作最佳是建立健康人机关系的基础。例如明确告知用户当前对话AI是基于概率生成文本可能产生“幻觉”编造信息而非真正理解世界。可解释性设计既然社会期望AI系统能承担更多责任那么让其决策过程变得可理解、可审计就变得至关重要。这不仅仅是技术挑战如开发可解释AI算法更是设计理念的转变。系统应能提供决策依据的摘要、关键影响因素或置信度估计哪怕以牺牲少许性能为代价。5.2 对组织与管理者的启示系统性部署对于引入AI的企业和组织管理者需要意识到他们引入的不是一个孤立的软件工具而是一个会扰动现有工作流程、权力结构和组织文化的社会技术系统。技能重塑与岗位再造自动化可能消灭一些岗位但更常见的是改变岗位内容。管理者需要前瞻性地规划技能重塑计划帮助员工从被自动化的工作环节转向需要人类判断、创造力和情感交互的环节。同时思考如何利用AI增强现有岗位创造新的、更有价值的“人机协作”岗位。评估体系的变革评估AI项目的成功不能只看投资回报率或准确率等硬性技术指标。必须纳入社会技术指标例如员工满意度与工作质量的变化、客户体验的改善、决策过程透明度的提升、以及是否引入了新的伦理风险如偏见、隐私泄露。一个降低了客服成本但严重损害了客户满意度的AI系统从长远看是失败的。建立治理框架组织需要建立内部的AI治理委员会或制定AI使用准则明确数据伦理、算法问责、安全审查和人类最终监督等原则。这不仅是应对未来监管的合规要求更是建立内部信任、确保技术健康发展的基石。5.3 对政策与监管的启示敏捷与包容的治理对于政策制定者和监管机构社会技术定义指向一种更加敏捷、基于风险且包容的治理模式。基于风险的差异化监管不应将“AI”作为一个整体进行一刀切的监管。监管重点应放在应用场景和潜在风险上。一个用于推荐电影的AI和一个用于评估信用贷款的AI其社会影响和风险等级天差地别。监管框架应像欧盟《人工智能法案》的尝试那样根据风险等级不可接受、高、有限、最小实施不同严格程度的监管要求。动态更新技术清单技术的迭代速度远超立法周期。监管定义可以保持核心原则的稳定如上述三重维度但同时附上一个非穷尽性的、可动态更新的技术方法清单如机器学习、深度学习、遗传算法等。这既提供了法律确定性又为技术发展留出了空间。促进多方利益相关者对话AI的治理不能是技术专家或政府官员的闭门会议。它需要囊括企业家、工程师、社会科学家、伦理学家、法律专家以及公众代表的广泛对话。社会技术视角本身就强调技术的意义是由社会共同建构的。通过建立常态化的对话机制如伦理审查委员会、公众咨询平台才能让监管跟上技术发展的步伐并反映社会的多元价值。6. 常见迷思与辨析在围绕人工智能的公共讨论中基于片面理解产生了许多迷思。社会技术视角有助于我们更清晰地辨析这些观点。迷思一“AI的目标是创造超越人类的通用智能AGI所有研究都应以此为导向。”辨析这是将一种可能的且充满不确定性的长期技术愿景当作了当前AI发展的唯一或主要目的。从社会技术视角看AI的绝大多数现实价值恰恰来自于解决具体的、有限的“狭义AI”问题如机器视觉、自然语言处理、预测分析等。这些技术通过自动化和增强正在各个行业创造切实的生产力提升和体验改善。将全部注意力投向遥远的AGI反而会忽视对当下AI社会影响的治理和引导。AGI研究是探索的前沿但绝非AI的全部。迷思二“AI是客观中立的问题都出在带有偏见的数据或人。”辨析这是一种危险的“技术中立论”简化。AI系统从设计目标、算法选择、数据采集、特征工程到部署环境每一个环节都渗透着人类的价值判断和选择。一个预测警务AI其“降低犯罪率”的目标本身就隐含了价值取向何种犯罪何地犯罪。算法模型是对现实世界的简化抽象这种抽象方式本身就是一种主观建构。社会技术视角强调技术从诞生之初就是“负载价值”的。因此追求公平、透明的AI不是简单地“清洗数据”而是需要在全生命周期进行主动的、反思性的价值对齐设计。迷思三“AI将导致大规模失业人类的工作终将被取代。”辨析这是一个过于笼统的结论。历史表明技术革命在消灭旧岗位的同时总会创造新的岗位。AI的影响更可能是对工作任务的重构而非对职业的完全取代。许多职业中重复性的、模式化的任务会被自动化但那些需要社交智慧、创造力、复杂手眼协调和战略性思考的任务需求会增加。真正的挑战不在于工作岗位的绝对数量而在于劳动力市场的结构性转型被替代的劳动者是否具备新岗位所需的技能转型期的社会保障能否跟上社会技术视角要求我们更关注如何管理这一转型过程通过教育、培训和社保体系的设计让技术进步的红利得以广泛共享。迷思四“强大的AI必须是一个集成化的、无所不能的超级系统。”辨析这可能是受科幻作品影响而产生的想象。在工程实践中最有效、最可靠的AI往往是针对特定领域、特定任务高度优化的“专门家”系统。试图打造一个包罗万象的通用系统在技术上极其复杂在安全上风险难控在经济上也往往不划算。未来的AI生态更可能由无数个专业的、可互操作的“智能模块”组成根据具体需求灵活组合。社会技术视角提醒我们评估AI的价值不应看它是否“像人”一样全能而应看它在特定社会技术场景中是否可靠、高效、负责任地完成了创造价值的任务。人工智能的社会技术定义不是一个寻求一劳永逸答案的文字游戏而是一个持续进行的对话框架和行动指南。它要求我们摒弃非此即彼的二元思维不再纠结于“这到底算不算真正的智能”而是转向更务实、也更深刻的问题我们正在构建何种技术能力我们希望用它来实现何种社会目的我们如何塑造对它的合理期望并建立与之匹配的治理规则在这个技术深刻重塑社会的时代保持这种整体性、动态性和反思性的视角或许是我们能够驾驭浪潮而非被其吞没的关键。