优化算法有哪些应用(优化算法有哪些应用场景)
大家好!今天让创意岭的小编来大家介绍下关于优化算法有哪些应用的问题,以下是小编对此问题的归纳整理,让我们一起来看看吧。
开始之前先推荐一个非常厉害的Ai人工智能工具,一键生成原创文章、方案、文案、工作计划、工作报告、论文、代码、作文、做题和对话答疑等等
只需要输入关键词,就能返回你想要的内容,越精准,写出的就越详细,有微信小程序端、在线网页版、PC客户端
创意岭作为行业内优秀的企业,服务客户遍布全球各地,如需了解SEO相关业务请拨打电话175-8598-2043,或添加微信:1454722008
本文目录:
一、多目标智能优化算法及其应用的序言
大多数工程和科学问题都是多目标优化问题,存在多个彼此冲突的目标,如何获取这些问题的最优解,一直都是学术界和工程界关注的焦点问题.与单目标优化问题不同,多目标优化的本质在于,大多数情况下,某目标的改善可能引起其他目标性能的降低,同时使多个目标均达到最优是不可能的,只能在各目标之间进行协调权衡和折中处理,使所有目标函数尽可能达到最优,而且问题的最优解由数量众多,甚至无穷大的Pareto最优解组成。
智能优化算法是一类通过模拟某一自然现象或过程而建立起来的优化方法’这类算法包括进化算法、粒子群算法、禁忌搜索、分散搜索、模拟退火、人工免疫系统和蚁群算法等。和传统的数学规划法相比,智能优化算法更适合求解多目标优化问题。首先,大多数智能优化算法能同时处理一组解,算法每运行一次,能获得多个有效解。其次,智能优化算法对Pareto最优前端的形状和连续性不敏感,能很好地逼近非凸或不连续的最优前端。目前,智能优化算法作为一类启发式搜索算法,已被成功应用于多目标优化领域,出现了一些热门的研究方向,如进化多目标优化,同时,多目标智能优化算法在电力系统、制造系统和控制系统等方面的应用研究也取得了很大的进展。
本书力图全面总结作者和国内外同行在多目标智能优化算法的理论与应用方面所取得的一系列研究成果。全书包括两部分,共8章。第一部分为第1-4主要介绍了各种多目标智能优化算法的理论。其中第1章为绪论,介绍各种智能优化算法的基本思想和原理。第2章介绍多目标进化算法,主要描述多目标进化算法的基本原理、典型算法和各种进化机制与策略,如混合策略、协同进化和动态进化策略等。第3章介绍多目标粒子群算法,包括基本原理、典型算法、混合算法和交互粒子群算法等。第4章描述除粒子群算法和进化算法之外的其他多目标智能优化算法,主要介绍多目标模拟退火算法、多目标蚁群算法、多目标免疫算法、多目标差分进化算法和多目标分散搜索等。
第二部分为第5-8章,主要介绍了多目标智能优化算法的应用’包括神经网络优化、生产调度、交通与物流系统优化、电力系统优化及其他。第5章描述人工神经网络的多目标优化,主要包括Pareto进化神经网络、径向基神经网络、递归神经网络和模糊神经网络。第6章介绍交通与物流系统优化,主要描述了智能优化算法在物流配送、城市公交路线网络和公共交通调度等方面的应用。
二、求解原始问题和对偶问题常用的优化算法有哪些
1. 支持向量机的目的是什么?
对于用于分类的支持向量机来说,给定一个包含正例和反例(正样本点和负样本点)的样本集合,支持向量机的目的是寻找一个超平面来对样本进行分割,把样本中的正例和反例用超平面分开,但是不是简单地分看,其原则是使正例和反例之间的间隔最大。
超平面是什么呢?简单地说,超平面就是平面中的直线在高维空间中的推广。那么,对于三维空间,超平面就是平面了。对于更高维的空间,我们只能用公式来表达,而缺少直观的图形了。总之,在n维空间中的超平面是n-1维的。
超平面的公式为。公式中的w为可以调整的系数向量,b为bias。注意我们的表达习惯,所有的向量都是列向量,所以在第一项的内积中向量w需要进行转置。
现在考虑样本集合{xi,di},xi是输入的特征,di是样本对应的分类。现在规定当样本xi属于第一类时,di为1,当xi属于第二类时,di为-1。
那么,线性可分的意思就是一个超平面可以把两类样本完全地分割开来。用公式表达就是:
你现在可能会问,那么如果不是线性可分的情况应该怎么办呢?事实是这些会在后面处理到。在这里我们首先讨论线性可分的情况,然后将其拓展到线性不可分的情况.
现在假设对于线性可分的样本集,我们有了一个分割超平面,现在我们想通过调整w0和b0让它分割的正样本和负样本保持最大的间隔,这样我们就获得了最优的超平面。实际上在操作过程中,我们最大化的是离超平面最近的点到超平面的距离。也就是说,我们要让超平面尽量远离最近的点。从图中可见超平面到正样本最近点的距离和超平面到负样本最近点的距离是相等的。这是个巧合么?
假设我们已经找到了一个超平面,它离正样本最近点的距离大于离负样本最近点的距离,那么这个离超平面最近的点就是负样本中的最近点。而考虑到我们的目标,我们还会调整超平面的位置使它还可以增大一些,即使这样会牺牲离正样本最近点的距离。所以调整到最后的结果肯定是超平面离两侧最近点的距离是等距的。
为了更形象地表现正负样本的间隔,我们可以在分割超平面的两侧再定义两个超平面H1和H2(如图中虚线所示),这两个超平面分别通过正样本和负样本中离分割超平面最近的样本点(图中加了外圈)。从以上分析可以知道,超平面H1和H2离分割超平面是等距的。
我们定义超平面H1和H2上面的点叫做支持向量。正负样本的间隔可以定义为超平面H1和H2之间的间隔,它是分割超平面距最近正样本点距离和最近负样本点距离之和。
从图中可以看出,支持向量对于分割超平面的位置是起到关键作用的。在优化分割超平面位置之后,支持向量也显露出来,而支持向量之后的样本点则对分类并不关键。为什么这样说呢?因为即使把支持向量以外的样本点全部删除,再找到最优的分割超平面,这个超平面的位置跟原先的分割超平面的位置也是一样的。总结起来就是:
支持向量包含着重构分割超平面所需要的全部信息!
2. 样本点到超平面距离的表示
如何求一点到超平面的距离呢?
现在我们来看看系数向量w0是什么含义?回忆一下,w0实际上是超平面的法向量!
那么,对于任意一个样本点x,它可以表示为:
其中xp是x在超平面上的投影,r是x到超平面的几何距离(几何间隔)。
设 ,
现在由定义有g(xp)为0,则有。
现在我们开看,g(x)实际上度量了样本点x到超平面的距离,在||w0||恒定的情况下,g(x)绝对值的大小反映了几何间隔r的大小。我们给g(x)起个名字叫做函数间隔。注意几何间隔r和函数间隔g(x)都是有正负号的,代表着处于超平面的不同侧。
3. 最大化间隔
我们已经知道了函数间隔和几何间隔的表示,现在回到正题,我们需要最大化支持向量到分割超平面的距离,当然在最开始我们不知道哪些向量是支持向量。
我们的目的是最大化支持向量到分割超平面的几何间隔r,而不是最大化函数间隔g(x),为什么呢?因为超平面方程的系数可以同比例增大或者减小,而不改变超平面本身。所以||w0||是不固定的,这就会影响函数间隔g(x)的大小。
所以我们需要最大化的是几何间隔r,这等价于我们固定||w0||,然后最大化函数间隔g(x)。但是实际上我们不会这么做,通常的处理方法是固定函数间隔g(x)的绝对值为1,然后最小化||w0||。也就是说我们把支持向量到分割超平面的函数间隔g(x)的绝对值设定为1,然后最小化||w0||。
4. 正式的表述
现在我们可以正式地表述这个问题了。我们需要最小化||w0||,也就是最小化超平面权重向量w0的欧几里得范数。但是有没有限定条件呢?还记得上一节最后一句话么?
“也就是说我们把支持向量到分割超平面的函数间隔g(x)设定为1,然后最小化||w0||”
所以最小化||w0||是有限定条件的,如何表述限制条件呢?我们把支持向量对应的g(x)定为+1或者-1(取决于支持向量处于分割超平面的哪一侧,也就是说是正样本还是负样本),也就表明了对于所有的正样本点来说,g(x)是>=+1的,而对于负样本来说,g(x)是<=-1的。
回想g(x)的定义:
,
我们可以把限制条件写下来:
现在我们可以把上面的问题写的更简练:
目标函数:
限制:
1/2是为了以后计算方便所加的,N是样本点的个数。
现在我们的第一个任务结束了,我们把要寻找最优的分割超平面的问题转化为带有一系列不等式约束的优化问题。这个最优化问题被称作原问题。我们不会直接解它,而是把它转化为对偶问题进行解决。至于如何将其转化为对偶问题,这是以后几节的内容。
等式约束极小的最优性条件
对支持向量机的求解都是将上节说的原问题转化为对偶问题进行求解的,这些内容都是最优化课程中的内容。
回忆上节的内容,我们的目标是寻找函数在若干约束条件下的最小值。在上节的原问题中,约束条件是包含不等式的,本节先考虑简单的问题,即考虑只包含等式约束的最优化问题:
(1)
其中f(x)被称作目标函数,而下面是一系列的等式约束。回想一下,当没有任何约束存在的时候,应该怎样寻找最优点呢?事实上x*是最优点的必要条件是:
而如果函数f(x)是凸函数的话,这个条件也是充分条件。
插入一个说明,如果函数f(x)是一个实值函数,x是一个n维向量,那么f(x)对向量x的导数被定义为:
回到目前的问题,当我们寻找约束存在时的最优点的时候,约束的存在虽然减小了需要搜寻的范围,但是却使问题变得更加复杂。为了使问题变得易于处理,我们的方法是把目标函数和约束全部融入一个新的函数,即拉格朗日函数,再通过这个函数来寻找最优点。
为了形象化地分析这个问题,我们考虑目标函数是三变量的函数并且只有一个约束的情况:
(2)
从几何上来看,上面的问题(2)就是从曲面上来寻找函数的最小值。假设问题(2)的最优解是。我们现在做曲面Ω上任一条通过点x的光滑曲线l:(由于曲线l是在曲面Ω上的,所以自然有)。
令最优点对应的t为t*。因为x*是曲面Ω上的最优点,所以x*也是曲线l上的最优点,所以t*是一元函数的最优点,所以在这一点它的导数是0。通过链式法则我们得到:
这个式子说明了在x*这一点,函数的梯度向量 和曲线l在x*处的切线是垂直的。由于曲线l是任意的,所以梯度向量和曲面Ω是垂直的。
回忆高等数学的结论,的方向就是曲面Ω的法线方向,所以和必然在同一直线的方向上,所以必定存在一个常数μ*,有。
我们可以把它写成更加精炼的形式。如果我们构造二元函数,上面的结论就可以表达为必定存在着常数μ*,使。
我们把构造的函数称作拉格朗日函数,而其中的μ称作拉格朗日乘子。
关于只有等式约束的拉格朗日函数的引入,也可以参考维基百科中的两个变量函数的例子。
以上是一个特殊情形的分析,并且只包含了一个约束。那么包含等式约束的一般情况,也就是问题(1)来说,我们同样可以构造拉格朗日函数,不过由于包括多个等式约束,表达稍微不同:
。
也就是说,每一个等式约束都对应着一个拉格朗日乘子。那么x*是最优点的必要条件就是,存在相应的拉格朗日乘子μ*,使得以下两个式子成立:
(实际上就是原问题(1)的约束条件换了种写法)
这两个式子就是最优点的必要条件,当然如果函数是凸函数的话,这两个式子也是充分条件。
现在我们的目标达到了,也就是把目标函数和一系列的等值约束融合到了一个函数(拉格朗日函数)里面,这样只需要解(3)和(4)这两个式子就可以找到最优点,其优点是不言而喻的。而在下一节中我们将会讨论包含不等式约束的最优化问题。
寻找最优值的下界
我们首先要引入包含不等式约束的优化问题,标准形式如下:
(1)
f(x)是目标函数,而后面分别是一系列的不等式约束和等式约束。
我们首先明确几个概念:
可行点(可行解):所有满足约束的点x。
可行域:所有可行点组成的点集,记为R。正式写出来就是:
最优点(最优解):满足约束(也就是处于可行域之内)并且使目标函数达到最小的点,记为x*。
最优值:如果找到了x*,p* = f(x*) 就是最优值。
明确了这些概念以后我们就接着说下面的内容了。
与上节所说的只包含等式约束的情况类似,我们定义拉格朗日函数如下:
我们来看看,这与上节的拉格朗日函数有什么不同?多了一系列的不等式约束对应的项,所以也多了一系列的拉格朗日乘子。在这里需要强调的是,所有的λi必须是大于等于0的(也即是不等式约束对应的乘子要求大于等于0,我们记为λ≥0,意思是每个都λi≥0)。至于为什么要这样要求,后面自然可以看出来。
接下来我们定义一个重要的函数,我们定义拉格郎日对偶函数(the Lagrange dual function)如下:
(2)
所以拉格朗日对偶函数就是把看成x的函数所找到的最小值。找到这个最小值有什么意义呢?
我们先把结论写下来,这个结论十分重要,是本节论述的目的:
对偶函数产生了原问题(1)最优值p*的一个下界,也就是说,对于任意的λ≥0和任意的μ来说,有:
(3)
那么如何证明(3)呢?
这个证明步骤十分简洁。假设x*是原问题(1)中的最优解,也就是f(x*) = p*。
最后两行的推导是考虑到x*是在可行域R内的,所以肯定有,当然前提是λ≥0,这也就是为什么在一开始要做这个规定的原因了。
我们如何理解这个不等式(3)呢?下面给出两个直观的解释:
解释一:线性逼近的解释
我们首先重写问题(1),就是把问题(1)换个更加紧凑的方式来表达,首先我们定义示性函数:
同样我们也可以定义另外一个示性函数:
有了这两个示性函数的帮助,现在我们可以把问题(1)重新写成一个没有约束的形式:
(4)
我们来看看这个优化问题(4)和问题(1)是等价的么?我们可以把(4)的后面两大项看做是对违反约束条件的x的惩罚函数。起的作用是对违反不等式约束的x进行“无限的”惩罚,也就一旦,惩罚就等于无穷大。而起的作用是对违反等式约束的x进行惩罚,一旦,惩罚就为无穷大。这样对(4)中目标函数的优化跟对(1)中目标函数在约束条件下的优化就是同一回事,是不是?也就是说,(1)和(4)这两个问题是等价的问题,但是在(4)中约束被融合到目标函数中来了。
现在我们再回头看看(2),也就是拉格朗日对偶函数,它也是个优化问题,我们对比它所优化的函数和(4)中所优化的函数,把它们重写在一起:
(2)中的目标函数
(4)中的目标函数
可见在问题(2)和问题(4)中,我们优化的目标函数区别在于惩罚项不同,(4)中的惩罚项是无限的,就是说一旦违反约束,就施加无穷大的惩罚;而在(2)中我们的惩罚项是线性的,就是说随着gi(x)和hi(x)的不同,惩罚项是线性变化的。所以(2)和(4)中需要优化的目标函数有很大的不同,用(2)来逼近(4)是很不准确的。但是我们可以看出,对于任意的u,任意的λ≥0和任意的μ来说都有:
(我们把λ限制为大于等于0了)
所以在任意点,(2)中的目标函数的值都是小于(4)中的目标函数的值,所以(2)中找到的最优值肯定是小于(4)中找到的最优值的。再结合前面说的(1)和(4)是等价的问题,所以不等式(3)是成立的。
解释二:交换max和min的次序
我们首先可以看出:
为什么会有这个结果呢?当x满足约束的时候,也就是对所有的i来说有并且,如果我们想通过调整λ和μ让变大怎么办呢?只有让λ全部为0(注意λ只能大于等于0),这样就消去了小于0的项,至于,无论μ怎么变都是没有影响的。所以当x属于可行域的时候上式的结果是f(x)。如果x违反了约束呢?在做sup运算的时候只需要对满足和的项对应的乘子定为+∞,而把其他的项对应的乘子设为0,就可以让整个式子的结果变为无穷大。
所以我们可以看出来,在问题(1)中的带约束的优化问题和直接优化是一回事,也就是说:
现在我们把inf和sup两个运算符调换次序,显然有:
我们重写(2)式:
(2)
可以看出结论了,也就是λ≥0时(3)式成立:
(3)
好了,费了半天的劲我们说明了一个问题,就是不等式(3)是怎么来的。
总结一下,不等式(3)用文字叙述就是:
如果我们把拉格朗日函数看做是x的函数,然后取下确界(注意:是在整个定义域里取下确界,而不是仅仅在可行域里取值,也就是说取下确界时对x是没有约束的),那么得到的结果就是原优化问题(1)的最优值的一个下界。
至于我们得到这个结果有什么用,下节再说。
对偶问题
回忆上一节,对如下的原问题:
(1)
我们定义了拉格朗日对偶函数:
然后我们证明了:,其中p*是原问题的最优值。
也就是说我们找到了原问题最优值的一个下界。既然我们找到了一个下界,显然我们要找到它最好的下界。什么是最好的下界的?显然就是所有下界当中最大的那一个。所以我们要把最大化,当然我们还要记得我们需要限制。我们把要优化的函数和约束条件正式写下来就是:
(2)
与原问题(1)相对应,我们把上面的问题(2)称作拉格朗日对偶问题(Lagrange dual problem)。显然,对偶问题的最优值d*就是我们可以获得的p*的最优下界,也就是所有下界中离p*最近的一个,它们的关系是:
(3)
我们把这个不等式叫做弱对偶性质(Weak Duality)。
顺其自然,我们可以引出一个重要的概念,对偶间隙,其定义为,用文字叙述就是原问题的最优值与通过拉个郎日对偶函数获得的其最好(最大)的下界之差。由不等式(3)可以看出,对偶间隙肯定是大于等于0的。
那么有没有可能在某种情况下,对偶间隙消失了呢?也就是说对偶问题的最优值与原问题的最优值相等了呢?
我们将要叙述一下Slater条件:
Slater条件:
存在x满足:
Slater条件即是说存在x,使不等式约束中的“小于等于号”要严格取到“小于号”。
可以证明,对于凸优化问题(关于凸优化问题,请参考维基百科),如果Slater条件满足了,则:
这种情况称为强对偶性质(Strong Duality)。
下面的问题是,如果对偶间隙消失了,会发生什么有趣的现象呢?
如果对偶间隙消失了,也就是说,如果对偶问题存在着最优点λ*,μ*并且使其对应的最优值等于p*,这时会发生什么情况呢?还记得上一节我们证明的过程么:
(4)
在对偶间隙消失的情况下,中间所有的不等号都要变成等号:
(5)
注意,(5)中的λ和μ都加了星号,表示它们是对偶问题的最优点。(5)中有两个重要的等号,已经加了标记。
我们能得出什么结论?
1 .我们先来看等号1:
它说明了原问题的最优点x*是使取得最小值的点。
2. 我们再来看等号2:
它说明了:
由于我们限制了每一个λi≥0,所以上式中每一项都是非正的。这样我们又可以得出结论:
(6)
等式(6)被称作是互补性条件,我们可以把它换种写法:
或者写成它的等价形式(逆否命题):
也就是说,只要一个不为0,另一个就必为0!
互补性条件有着重要的意义。它说明了当时,x*是处于可行域的内部的,这时不等式约束并不起作用,此时;而的点肯定是可行域边界的点()。也就是说只有积极约束才有不为0的对偶变量。而这在支持向量机中有着重要的意义。回想在第一节我们最后的结论,支持向量机寻找最大间隔超平面可以归结为一个优化问题:
目标函数:
限制:
那么哪些不等式约束对应着不为0的对偶变量呢?显然,只有当时,这个约束对应的对偶变量才可能不为0,而意味着什么?意味着这个约束对应的样本点xi是支持向量!也就是说:
只有支持向量才对应不为0的拉格朗日乘子!
三、优化方法总结
神经网络模型中有多种优化算法,优化算法的作用用来优化更新参数。
对于优化算法而言,主要的框架如下。
参数: 目标函数: 学习率 。
对于每个epoch t:
step1: 计算当前梯度
step2: 计算动量。
一阶动量:
二阶动量:
step3: 计算当前时刻下降梯度
step4: 更新参数
对于不同的优化算法而言,区别主要在于第一步和第二步。对于梯度的计算,一阶动量的计算,和二阶动量的计算存在差别。
三、四步的计算更新,各个算法之间都是相同的。
最常见的SGD
直接没有step2,没有引入动量。
在实际的实现中,可能会对学习率 进行改变,会使用衰减学习率。
SGD的缺点是 1 收敛速度慢,2 有可能会困在局部最优解。
也就是SGD+ Momentum。这里引入了一阶动量。
从直观理解就是加入了一个惯性,在坡度比较陡的地方,会有较大的惯性,这是下降的多。坡度平缓的地方,惯性较小,下降的会比较慢。
修改SGD中的一阶动量为
等式右边有两部分,加号左边的部分为之前积累的下降方向,加号右边为当前的梯度。两者的权重用参数来控制。
越大,说明下降的方向越依赖于以往的惯性。可以减少方向的突变。
NAG是:Nesterov Accelerated Gradient
这里是针对SGD会陷在局部最优附近的缺点进行改进。
在前面针对收敛慢改,引进一阶动量后,这里着眼于step1里的梯度计算。通常 会设的比较大,这就说明下降方向主要由历史方向积累决定,那么在step1里,不看当前的梯度,而是看下一步时刻的梯度。直观理解为多看一步,计算下一步的梯度。
用下一个点的梯度下降方向,与历史累积动量结合,计算step2里的一阶动量。
计算公式如下
前面的优化算法主要着眼于一阶动量的设计,从AdaGrad开始,将引入二阶动量。参数的二阶动量在这里表示为当前维度上,历史积累的全部的梯度的平方和。
将step3里的公式修改一下顺序,那前面的部分可以看成学习率。这里的分母是二阶动量。这里的学习率(包含二阶动量)会随着二阶动量的积累而逐渐变化,这就是‘自适应学习’。
宏观来分析,这里参数更新时,希望从少更新的维度多学习,经常更新的参数那里少学习一点。对于频繁更新的的参数,二阶动量迅速积累,会使的学习率降低,那么在同一次更新中,模型会学到比较少的内容。而不频繁更新的参数,学习率会比较大,每次更新时学到的东西比较多。
Ada算法的缺点也很明显,二阶动量是历史梯度的积累,是个单调递增的值,当分母越来越大时,整个的学习率会趋于0,会提前停止学习。
为了改进AdaGrad中的二阶动量会不断增加的缺点,这里提出了一个时间窗口。计算二阶动量的时候只计算这个时间窗口内的动量。避免了二阶动量的持续积累。
二阶动量的计算公式如下
SGD-M 引入了一阶动量,AdaG 引入了二阶动量。
二者结合就是Adam,同时考虑一阶动量和二阶动量。
二者的计算公式如下:
回头看最初的优化框架,已经分别在一阶动量和二阶动量做了研究。还剩下当前的梯度可以进行尝试。参考前面的NAG,Nadam就是Adam+Nesterov。
在Adam的基础上保持其他计算公式不变,更改当前梯度的计算公式为
从前面的介绍可以看出,Adam系列的算法表面上更优秀,针对原本的SGD的缺点做了各种改变。但是对于Adam算法,目前也存在着缺点。
其中一个很严重的问题是Adam算法有可能不收敛。因为二阶动量取决于一段时间内的梯度的积累。这段时间内的数据如果有异常,会导致这个二阶动量极不稳定。在学习的后期,学习率有可能不断震荡,导致整个模型无法收敛。
同时因为动量的引入,在学习的后期,存在可能使一步过大,错过最优解。
综上所述,虽然Adam看着很完美,但在实际应用中还是存在着缺点。所以到底是各种优化器要如何选择,还是要取决于具体的情况和个人的调参经验。
后续会逐渐更新个人的调参经验。
[1] 一个框架看懂优化算法之异同 SGD/AdaGrad/Adam
[2] Adam的两宗罪
[3] 如何理解随机梯度下降(Stochastic gradient descent,SGD)?
四、多目标智能优化算法及其应用的目录
《智能科学技术著作丛书》序
前言
第1章 绪论
1.1 进化算法
1.1.1 进化算法的基本框架
1.1.2 遗传算法
1.1.3 进化策略
1.1.4 进化规划
1.2 粒子群算法
1.2.1 标准粒子群算法
1.2.2 算法解析
1.3 蚁群算法
1.3.1 蚁群算法的基本思想
1.3.2 蚁群算法的实现过程
1.3.3 蚁群算法描述
1.3.4 蚁群优化的特点
1.4 模拟退火算法122
1.4.1 模拟退火算法的基本原理
1.4.2 模拟退火算法描述
1.5 人工免疫系统
1.5.1 生物免疫系统
1.5.2 人工免疫系统
1.6 禁忌搜索
1.7 分散搜索
1.8 多目标优化基本概念
参考文献
第2章 多目标进化算法
2.1 基本原理
2.1.1 MOEA模型
2.1.2 性能指标与测试函数
2.2 典型多目标进化算法
2.2.1 VEGA、MOGA、NPGA和NSGA
2.2.2 SPEA和SPEA2
2.2.3 NSGA2
2.2.4 PAES
2.2.5 其他典型MOEA
2.3 多目标混合进化算法
2.3.1 多目标遗传局部搜索
2.3.2 J—MOGLS
2.3.3 M PAES
2.3.4 多目标混沌进化算法
2.4 协同多目标进化算法
2.5 动态多目标进化算法
2.5.1 IMOEA
2.5.2 动态MOEA(DMOEA)
2.6 并行多目标进化算法
2.6.1 并行多目标进化算法的基本原理
2.6.2 多分辨率多目标遗传算法
2.6.3 并行单前端遗传算法
2.7 其他多目标进化算法
2.7.1 高维多目标优化的NSGA2改进算法
2.7.2 动态多目标优化的进化算法
2.8 结论与展望
参考文献
第3章 多目标粒子群算法
3.1 基本原理
3.2 典型多目标粒子群算法
3.2.1 CMOPSO
3.2.2 多目标全面学习粒子群算法
3.2.3 Pareto档案多目标粒子群优化
3.3 多目标混合粒子群算法
3.3.1 模糊多目标粒子群算法
3.3.2 基于分散搜索的多目标混合粒子群算法
3.4 交互粒子群算法
3.5 结论
参考文献
第4章 其他多目标智能优化算法
4.1 多目标模拟退火算法
4.2 多目标蚁群算法
4.2.1 连续优化问题的多目标蚁群算法
4.2.2 组合优化问题的多目标蚁群算法
4.3 多目标免疫算法
4.4 多目标差分进化算法
4.5 多目标分散搜索
4.6 结论
参考文献
第5章 人工神经网络优化
5.1 Pareto进化神经网络
5.2 径向基神经网络优化与设计
5.3 递归神经网络优化与设计
5.4 模糊神经网络多目标优化
5.5 结论
参考文献
第6章 交通与物流系统优化
6.1 物流配送路径优化
6.1.1 多目标车辆路径优化
6.1.2 多目标随机车辆路径优化
6.2 城市公交路线网络优化
6.3 公共交通调度
6.3.1 概述
6.3.2 多目标驾驶员调度
6.4 结论
参考文献
第7章 多目标生产调度
7.1 生产调度描述_
7.1.1 车间调度问题
7.1.2 间隙生产调度
7.1.3 动态生产调度
7.1.4 批处理机调度和E/T调度
7.2 生产调度的表示方法
7.3 基于进化算法的多目标车间调度
7.3.1 多目标流水车间调度
7.3.2 多目标作业车间调度
7.4 基于进化算法的多目标模糊调度
7.4.1 模糊调度:Sakawa方法
7.4.2 模糊作业车间调度:cMEA方法
7.5 基于进化算法的多目标柔性调度
7.5.1 混合遗传调度方法
7.5.2 混合遗传算法
7.6 基于粒子群优化的多目标调度
7.6.1 基于粒子群优化的多目标作业车间调度
7.6.2 多目标柔性调度的混合粒子群方法
7.7 多目标随机调度
7.8 结论与展望
参考文献
第8章 电力系统优化及其他
8.1 电力系统优化
8.1.1 基于免疫算法的多目标无功优化
8.1.2 基于分层优化的多目标电网规划
8.1.3 基于NSGA2及协同进化的多目标电网规划
8.2 多播Qos路由优化
8.3 单元制造系统设计
8.3.1 概述
8.3.2 基于禁忌搜索的多目标单元构造
8.3.3 基于并行禁忌搜索的多目标单元构造
8.4 自动控制系统设计
8.4.1 概述
8.4.2 混合动力学系统控制
8.4.3 鲁棒PID控制器设计
8.5 结论
参考文献
附录 部分测试函数
……
以上就是关于优化算法有哪些应用相关问题的回答。希望能帮到你,如有更多相关问题,您也可以联系我们的客服进行咨询,客服也会为您讲解更多精彩的知识和内容。
推荐阅读: