2026年2月最新优化算法——侦探行为算法
侦探行为算法Detective Behavior AlgorithmDBA是一种受侦探破案智能启发的元启发式算法。这类被称为“案件破解专家”的角色不仅具备系统性的逻辑推理与多线索整合能力更拥有在复杂环境中锁定目标、层层深入的专业侦查策略——他能通过大范围勘查搜集线索逐步聚焦关键区域进行深度排查并最终实施精准收网。研究团队正是借鉴这一典型的侦查行动逻辑提出了DBA算法模拟了侦探在解空间中的三类核心行为策略基于广域扫描的线索搜集机制、面向重点区域的多维排查策略以及锁定关键证据的收网行动。这些策略被转化为协同的数学操作在应对复杂优化问题时展现出优异的全局探索与局部开发平衡能力。该成果于2026年最新发表于计算机领域1区期刊 Knowledge-Based Systems具有广阔的应用前景。1 算法原理详解在现代战争中常需要部署大规模、高精度的侦查与情报搜集行动以获取敌军关键信息。这类行动旨在收集核心数据、监测敌方动态并协助军事指挥与决策者制定有效的战略与战术方案。典型的情报处理流程包含若干顺序阶段。军事侦查行为的关键特征可归纳如下1初始化阶段在初期阶段由于缺乏敌方位置的精确信息指挥部难以在作战空间内确定确切的部署路径。因此侦察单位需从中心基地沿随机方向派遣以探索潜在的敌军位置如下图所示。在DBA框架中优化过程始于对 个候选解 种群的初始化如公式所定义。这些解通过公式所描述的策略在搜索空间中随机分布。在每次迭代中性能最优的解被识别并标记为全局最优解 其中 表示区间 内均匀分布的随机数 与 分别对应搜索空间中第 维的下限与上限。此外 表示优化问题的总维度数。2探索与开发的切换机制在整个迭代过程中算法通过一下公式来确定候选解应采用的搜索策略——即选择探索或开发行为当前迭代次数记为 最大迭代次数记为。 表示在到之间随机生成的值 是控制探索与开发之间权衡的常数。函数的阈值设定为以保持两种策略之间的平衡。具体而言若候选解侧重执行开发操作若则侧重执行探索操作。当时算法选择开发算子否则使用探索算子。正弦函数形式的设定实现了平滑、周期性的策略分配早期迭代中多数时间处于阈值 以下后期迭代则自然稳定在阈值以上。如下图所示这种方式避免了策略的硬性切换同时降低了早熟收敛的风险。3探索阶段受侦查行动启发算法假定在初始阶段尚未掌握敌方位置或其他相关信息。因此指挥部会部署侦察设备与人员执行广泛搜索任务。在此阶段搜索范围被有意设置为较宽使得智能体能够探索搜索空间内任何具有潜力的区域。该阶段的主要目标是逼近全局最优解的位置。基于这一行为逻辑DBA框架中的探索移动策略旨在确定相对于中心营地。相应地探索策略可形式化描述如下其中 与宿营位置分别代表搜索历史中获得的第维全局最优位置以及搜索空间的中心点。 是一个取值范围在到 之间的随机数。该机制实现了向高质量区域开发的受控收缩映射同时保持了全局可行性。4开发阶段基于前述攻击行为算法采用两种主要战术一方面智能体采用直接攻击方式果断地向目标最可能的位置移动另一方面整个种群围绕预估的敌方位置进行局部搜索以防目标可能的规避机动。这些策略促使候选解向潜力区域收敛驱动其逐渐逼近理想最优解变量 和 服从正态分布其标准差分别为 和 均值均为零。这种概率设置确保了步长大小的多样性在保持局部精细化潜力的同时增强了算法的探索能力。如下图所示参数 对莱维飞行的步长特性有显著影响。当 时步长较长且高度分散有利于广泛的全局探索。随着 增大步长逐渐变短且更集中使搜索行为转向局部开发。 的中间设置为探索与开发提供了平衡的权衡提供了合适的步长分布本研究后续部分均采用此设置。第一种开发公式可表述如下其中 表示莱维飞行的步长 为第次迭代时全局最优解的第维位置。此外 表示第个解在第次迭代时的第维位置。服从莱维分布的步长 能够实现偶发的长距离跳跃从而帮助算法逃离局部极小值其概率尾部分布提供了可调节的探索压力。在某些情况下理想的全局最优解可能位于与当前已识别的全局最优位置 相距较远的区域。因此若仅依赖第一种开发策略种群可能始终聚集在 附近从而限制了算法摆脱局部最优的能力。换言之仅依靠该策略可能不足以引导搜索走向实际的全局最优解反而会增加早熟收敛的风险。为克服这一局限引入了第二种开发策略如以下公式所示。该策略受直接攻击战术启发使候选解从其当前位置直接朝已知的全局最优位置移动。这一方法增强了算法在潜力区域中进行强化搜索的能力同时持续推进向真实最优解的逼近。其中 为取值范围在 到 之间的随机值。基于该移动策略算法在已获得的全局最优位置与每个候选解位置之间生成一个新的高质量搜索空间从而扩展了开发阶段的搜索范围。因此依据公式生成的位置——该位置偏离已获得的全局最优位置——有助于降低收敛至局部最优解的风险。换言之这是 与 之间的线段采样在偏向最优解的同时保持了多样性。4反向学习策略尽管上述两种策略在DBA框架中有效促进了探索与开发但在某些情况下仍需进一步强化。尤其当全局最优解位于候选解当前位置相反的区域时若最优解处于候选解当前位置相对的搜索空间远端算法可能需要大量迭代才能跨越该距离。在此约束下有限的迭代次数可能阻碍算法及时收敛至最优解。为应对这一挑战M. Abdel-Basset等人提出了反向学习策略。该方法通过同时考虑当前位置及其反向位置旨在加速收敛并提升解的质量。其核心思想是评估每个候选解对应反向点的适应度并保留性能更优的位置。由此搜索过程能够以更广阔的视角覆盖解空间从而避免陷入局部最优区域。具体步骤表述如下。与当前位置 相对应的反向位置 的数学表达式为比较当前位置 及其对应反向位置的适应度值。若的适应度值小于的适应度值则以反向位置替换当前位置其中 为用于计算各候选解适应度值的函数。DBA算法的详细伪代码如算法1所示DBA算法的流程图如下所示2 结果展示3、MATLAB核心代码参考文献[1]]Cheng J, De Waele W. Detective Behavior Algorithm (DBA): A New Metaheuristic for Design and Engineering Optimization[J]. Knowledge-Based Systems, 2026: 115434.完整代码获取获取更多