前言
提醒:
文章内容为方便作者自己后日复习与查阅而进行的书写与发布,其中引用内容都会使用链接表明出处(如有侵权问题,请及时联系)。
其中内容多为一次书写,缺少检查与订正,如有问题或其他拓展及意见建议,欢迎评论区讨论交流。
内容由AI辅助生成,仅经笔者审核整理,请甄别食用。
文章目录
Ma, Haiping & Zhang, Yajing & Sun, Shengyi & Liu, Ting & Shan, Yu. (2023). A comprehensive survey on NSGA-II for multi-objective optimization and applications. Artificial Intelligence Review. 56. 1-54. 10.1007/s10462-023-10526-z.
一些关于优化算法的缩写
以下是图中内容整理成的Markdown表格,其中英文全称后面直接添加了中文翻译:
缩写 |
全称(Full Name) |
EA |
Evolutionary algorithm(进化算法) |
GA |
Genetic algorithm(遗传算法) |
DE |
Differential evolution(差分进化) |
CMA-ES |
Covariance matrix adaptation evolution strategy(协方差矩阵适应进化策略) |
MOP |
Multi-objective optimization problem(多目标优化问题) |
MOEA |
Multi-objective evolutionary algorithm(多目标进化算法) |
NSGA |
Non-dominated sorting genetic algorithm(非支配排序遗传算法) |
MOEA/D |
Multi-objective evolutionary algorithm based on decomposition(基于分解的多目标进化算法) |
CMOEA |
Coevolutionary multi-objective evolutionary algorithm(协同多目标进化算法) |
IBEA |
Indicator-based evolutionary algorithm(基于指标的进化算法) |
MOPSO |
Multiple objectives with particle swarm optimization(多目标粒子群优化) |
SPEA |
Strength Pareto evolutionary algorithm(强度帕累托进化算法) |
PBEA |
Preference-based evolutionary algorithm(基于偏好的进化算法) |
MOGLS |
Multi-objective genetic local search(多目标遗传局部搜索) |
MOGA |
Multi-objective genetic algorithm(多目标遗传算法) |
HypE |
Hypervolume estimation algorithm(超体积估计算法) |
SIBEA |
Simple indicator-based evolutionary algorithm(简单指标基进化算法) |
MODE |
Multi-objective differential evolution algorithm(多目标差分进化算法) |
MOGWO |
Multi-objective grey wolf optimizer(多目标灰狼优化器) |
MOACO |
Multi-objective ant colony optimization(多目标蚁群优化) |
ANN |
Artificial neural network(人工神经网络) |
PID |
Proportional integral derivative(比例积分微分) |
WSN |
Wireless sensor network(无线传感器网络) |
优化算法
类型算法 |
能力 |
独特特征 |
优势 |
弱点 |
相似算法 |
NSGA-II (Deb et al. 2002) |
基于支配的多目标优化问题(两个或三个目标) |
应用帕累托支配原则来分配解决方案的成本值,并用作多样性保持和拥挤距离的度量 |
它在解的传播方面保持更好,并在面对许多目标问题时收敛到真实的帕累托最优前沿 |
选择压力减少,进化过程在面对许多目标问题时受到阻碍 |
SPEA2 (Zitzler et al. 2001), ε-MOEA (Deb et al. 2005) |
NSGA-III (Deb and Jain 2014) |
参考框架基础的多目标优化问题(四个或更多目标,最多15个目标) |
它使用广泛分布的参考点来确定偏好信息,以指导搜索方向 |
它增加了帕累托解的分布和多样性,并成功解决许多目标优化问题 |
多样性度量和性能指标的评估在计算上是昂贵的 |
G-MOEA (Branke et al. 2001), PSEA (Thiele et al. 2009) |
MOEAD (Zhang and Li 2007) |
基于分解的多目标和多约束优化问题(两个或更多目标) |
传统聚合方法用于将MOP分解为多个标量子问题 |
每个子问题可以自然地使用标量局部搜索,所有子问题都使用预定的权重向量来保持解决方案的多样性 |
需要额外的参数和预定义的权重向量集 |
MOGLS (Ishizuchi and Murata 1998), C-MOGA (Murata and Gen 2002) |
IBEA (Zitzler and Künzli 2004) |
基于指标的多目标优化问题(两个或三个目标) |
性能指标如通用距离(GD)、超体积(HV)用于指导搜索,特别是用于解决方案选择 |
它只比较解决方案对而不是整个近似前沿集,有助于不同类别问题的收敛和多样性 |
用户偏好信息未被利用,导致相对较差的鲁棒性 |
HypE (Bader and Zitzler 2011), SIBEA (Brockhoff and Zitzler 2007) |
MOPSO (C. Carlos A et al. 2004) |
基于混合框架的多目标优化问题(两个或三个目标) |
不同的搜索和更新方法与MOPS结合处理 |
它结合了许多技术的不同特征和优势,以平衡支配和非支配解决方案 |
难以选择全局和局部最优粒子来指导搜索 |
MODE (Ali et al. 2012), MOGWO (Mirjalili et al. 2016) |
Overview of different directions of research on NSGA‑II
