精英学习策略

在一些优化算法中为了保留更多的解,在最优解进行变异,利于全局最优解进一步寻优。常用的变异方式有高斯变异和多项式变异。

高斯变异的精英学习策略:对于存档A中的每一个粒子,先复制成一个新粒子,然后对的随机选择的第d维上的变量做一个高斯变异,公式如下:

EidEid+ (Xmax,d−Xmin,d)Gaussian(01);

然后把新的粒子加入到存档S中;

多项式变异的精英学习策略:在进行子代更新,更新之后的粒子按照一定概率进行精英学习,j=rand(1,n)<pr;

其中:a_{j}b_{j}是粒子x 第j^{th}维的上下界;pr 的值随着迭代次数的增加 ,从0.2 线性减少为0.05。在进化初期,较大的变异范围有利于算法的全局搜索,随着迭代的进行,算法需要在局部范围找到更精确的解,因此小的变异范围更适合。正态分布的概率密度如图5 所示。由图5 可知,当pr 值较大时,产生的随机值较大的概率比较大,从而粒子的变异范围较大,有 利于产生较大的扰动;随着迭代的进行,pr 值减小,产生的随机数在均值0 附近的概率会越来越大,变异范围减小,此时的nbest 已接近于真实的最优位置,小范围的变异更有利于寻找精确解。


版权声明:本文为jodie123456原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。