論文の概要: An Improved LSHADE-RSP Algorithm with the Cauchy Perturbation:
iLSHADE-RSP
- arxiv url: http://arxiv.org/abs/2006.02591v1
- Date: Thu, 4 Jun 2020 00:03:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 09:43:02.440937
- Title: An Improved LSHADE-RSP Algorithm with the Cauchy Perturbation:
iLSHADE-RSP
- Title(参考訳): 因果摂動を用いたLSHADE-RSPアルゴリズムの改良:iLSHADE-RSP
- Authors: Tae Jong Choi and Chang Wook Ahn
- Abstract要約: この手法は、コーシー分布の長い尾を持つ性質を採用することにより、探索を向上させることができる。
従来の手法と比較して,提案手法はジャンプ率に基づいて,突然変異ベクトルの代わりにターゲットベクトルを摂動する。
改良されたLSHADE-RSPの最適化性能を評価するために、30の異なる難解な最適化問題を用いている。
- 参考スコア(独自算出の注目度): 9.777183117452235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new method for improving the optimization performance of a state-of-the-art
differential evolution (DE) variant is proposed in this paper. The technique
can increase the exploration by adopting the long-tailed property of the Cauchy
distribution, which helps the algorithm to generate a trial vector with great
diversity. Compared to the previous approaches, the proposed approach perturbs
a target vector instead of a mutant vector based on a jumping rate. We applied
the proposed approach to LSHADE-RSP ranked second place in the CEC 2018
competition on single objective real-valued optimization. A set of 30 different
and difficult optimization problems is used to evaluate the optimization
performance of the improved LSHADE-RSP. Our experimental results verify that
the improved LSHADE-RSP significantly outperformed not only its predecessor
LSHADE-RSP but also several cutting-edge DE variants in terms of convergence
speed and solution accuracy.
- Abstract(参考訳): 本稿では,最先端微分進化(DE)の最適化性能向上のための新しい手法を提案する。
この手法は、コーシー分布の長い尾を持つ性質を採用することにより探索を向上させることができ、アルゴリズムが大きな多様性を持つ試行ベクトルを生成するのに役立つ。
従来の手法と比較して,提案手法はジャンプ率に基づいて,突然変異ベクトルの代わりにターゲットベクトルを摂動する。
提案手法を,CEC 2018コンペで2位にランクインしたLSHADE-RSPに応用した。
改良されたLSHADE-RSPの最適化性能を評価するために、30の異なる難解な最適化問題を用いる。
実験の結果,LSHADE-RSPの改良は,従来のLSHADE-RSPだけでなく,収束速度や解の精度の観点からも有意な性能を示した。
関連論文リスト
- A Multi-operator Ensemble LSHADE with Restart and Local Search Mechanisms for Single-objective Optimization [0.0]
mLSHADE-RLは、シングルオブジェクト最適化におけるCEC 2017コンペティションの勝者の1つであるLSHADE-cnEpSinの拡張版である。
DE/current-to-pbest-weight/1はアーカイブなし、DE/current-to-pbest/1はアーカイブなし、DE/current-to-ordpbest-weight/1は元のLSHADE-cnEpSinに統合される。
LSHADE-cnEpSinは、CEC 2024コンペティションにおいて、単一目的制約付き最適化で30次元でテストされる。
論文 参考訳(メタデータ) (2024-09-24T11:49:08Z) - Provably Mitigating Overoptimization in RLHF: Your SFT Loss is Implicitly an Adversarial Regularizer [52.09480867526656]
人間の嗜好を学習する際の分布変化と不確実性の一形態として,不一致の原因を同定する。
過度な最適化を緩和するために、まず、逆選択された報酬モデルに最適なポリシーを選択する理論アルゴリズムを提案する。
報奨モデルとそれに対応する最適ポリシーの等価性を用いて、優先最適化損失と教師付き学習損失を組み合わせた単純な目的を特徴とする。
論文 参考訳(メタデータ) (2024-05-26T05:38:50Z) - Advancements in Optimization: Adaptive Differential Evolution with
Diversification Strategy [0.0]
この研究は2次元空間において単目的最適化を採用し、複数の反復で各ベンチマーク関数上でADEDSを実行する。
ADEDSは、多くの局所最適化、プレート型、谷型、伸縮型、ノイズの多い機能を含む様々な最適化課題において、標準Dより一貫して優れている。
論文 参考訳(メタデータ) (2023-10-02T10:05:41Z) - Accelerating the Evolutionary Algorithms by Gaussian Process Regression
with $\epsilon$-greedy acquisition function [2.7716102039510564]
本稿では,最適化の収束を早めるために,エリート個人を推定する新しい手法を提案する。
我々の提案には、エリート個人を推定し、最適化の収束を加速する幅広い見通しがある。
論文 参考訳(メタデータ) (2022-10-13T07:56:47Z) - Reinforcement learning based parameters adaption method for particle
swarm optimization [0.0]
本稿では,PSOの収束性を高めるため,強化学習に基づくオンラインパラメータ適応法(RLAM)を開発した。
CEC 2013の28のベンチマーク関数に関する実験は、他のオンライン適応法やPSOの変種と比較する際に行われる。
以上の結果から,提案したRLAMは効率的かつ有効であり,提案したRLPSOは最先端のPSOよりも優れていることが示唆された。
論文 参考訳(メタデータ) (2022-06-02T02:16:15Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z) - Optimistic Reinforcement Learning by Forward Kullback-Leibler Divergence
Optimization [1.7970523486905976]
本稿では、強化学習(RL)の新たな解釈を、KL(Kulback-Leibler)の分散最適化として扱う。
前方KL分散を用いた新しい最適化手法を導出する。
現実的なロボットシミュレーションにおいて、適度な楽観性を持つ提案手法は最先端のRL法よりも優れていた。
論文 参考訳(メタデータ) (2021-05-27T08:24:51Z) - Learning Sampling Policy for Faster Derivative Free Optimization [100.27518340593284]
ランダムサンプリングではなく,ZO最適化における摂動を生成するためのサンプリングポリシを学習する,新たな強化学習ベースのZOアルゴリズムを提案する。
その結果,ZO-RLアルゴリズムはサンプリングポリシを学習することでZO勾配の分散を効果的に低減し,既存のZOアルゴリズムよりも高速に収束できることが示唆された。
論文 参考訳(メタデータ) (2021-04-09T14:50:59Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z) - Distributionally Robust Bayesian Optimization [121.71766171427433]
そこで本研究では,ゼロ次雑音最適化のための分散ロバストなベイズ最適化アルゴリズム(DRBO)を提案する。
提案アルゴリズムは, 種々の設定において, 線形に頑健な後悔を確実に得る。
提案手法は, 実世界のベンチマークと実世界のベンチマークの両方において, 頑健な性能を示す。
論文 参考訳(メタデータ) (2020-02-20T22:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。