論文の概要: Learning adaptive differential evolution algorithm from optimization
experiences by policy gradient
- arxiv url: http://arxiv.org/abs/2102.03572v1
- Date: Sat, 6 Feb 2021 12:01:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 09:09:33.796821
- Title: Learning adaptive differential evolution algorithm from optimization
experiences by policy gradient
- Title(参考訳): 政策勾配による最適化経験からの適応微分進化アルゴリズムの学習
- Authors: Jianyong Sun and Xin Liu and Thomas B\"ack and Zongben Xu
- Abstract要約: 本稿では,一連の問題に対する最適化経験から学習した適応パラメータ制御手法を提案する。
提案した微分進化の制御パラメータを適応的に提供できるエージェントを学習するために、強化学習アルゴリズム、名前付きポリシーを適用した。
提案アルゴリズムは、CEC'13とCEC'17テストスイートでよく知られた9つの進化的アルゴリズムと競合して動作する。
- 参考スコア(独自算出の注目度): 24.2122434523704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential evolution is one of the most prestigious population-based
stochastic optimization algorithm for black-box problems. The performance of a
differential evolution algorithm depends highly on its mutation and crossover
strategy and associated control parameters. However, the determination process
for the most suitable parameter setting is troublesome and time-consuming.
Adaptive control parameter methods that can adapt to problem landscape and
optimization environment are more preferable than fixed parameter settings.
This paper proposes a novel adaptive parameter control approach based on
learning from the optimization experiences over a set of problems. In the
approach, the parameter control is modeled as a finite-horizon Markov decision
process. A reinforcement learning algorithm, named policy gradient, is applied
to learn an agent (i.e. parameter controller) that can provide the control
parameters of a proposed differential evolution adaptively during the search
procedure. The differential evolution algorithm based on the learned agent is
compared against nine well-known evolutionary algorithms on the CEC'13 and
CEC'17 test suites. Experimental results show that the proposed algorithm
performs competitively against these compared algorithms on the test suites.
- Abstract(参考訳): 微分進化はブラックボックス問題に対する最も名高い集団ベースの確率的最適化アルゴリズムの1つである。
微分進化アルゴリズムの性能は、その突然変異とクロスオーバー戦略と関連する制御パラメータに大きく依存する。
しかし、最も適切なパラメータ設定の決定プロセスは面倒で時間がかかります。
問題ランドスケープと最適化環境に適応可能な適応制御パラメータメソッドは、固定パラメータ設定よりも好ましい。
本稿では,一連の問題に対する最適化経験からの学習に基づく適応パラメータ制御手法を提案する。
このアプローチでは、パラメータ制御は有限ホリゾンマルコフ決定過程としてモデル化される。
提案する微分進化の制御パラメータを探索手順中に適応的に提供できるエージェント(すなわちパラメータコントローラ)を学習するために、ポリシー勾配と呼ばれる強化学習アルゴリズムが適用される。
学習エージェントに基づく差分進化アルゴリズムは、CEC'13とCEC'17テストスイートの9つのよく知られた進化アルゴリズムと比較される。
実験結果から,提案アルゴリズムはテストスイート上で比較したアルゴリズムに対して競合的に動作することがわかった。
関連論文リスト
- Adaptive Preference Scaling for Reinforcement Learning with Human Feedback [103.36048042664768]
人間からのフィードバックからの強化学習(RLHF)は、AIシステムと人間の価値を合わせるための一般的なアプローチである。
本稿では,分散ロバスト最適化(DRO)に基づく適応的優先損失を提案する。
提案手法は多用途であり,様々な選好最適化フレームワークに容易に適用可能である。
論文 参考訳(メタデータ) (2024-06-04T20:33:22Z) - Frog-Snake prey-predation Relationship Optimization (FSRO) : A novel nature-inspired metaheuristic algorithm for feature selection [0.0]
本研究では,Frog-Snake prey-predation Relationship Optimization (FSRO)アルゴリズムを提案する。
カエルとヘビの捕食関係から着想を得て、離散最適化問題に適用した。
提案アルゴリズムは26種類の機械学習データセットを用いて特徴選択に関する計算実験を行う。
論文 参考訳(メタデータ) (2024-02-13T06:39:15Z) - Socio-cognitive Optimization of Time-delay Control Problems using
Evolutionary Metaheuristics [89.24951036534168]
メタヒューリスティックス(Metaheuristics)は、古典的なアプローチでは解決できない難解な問題を解くために使用される普遍的な最適化アルゴリズムである。
本稿では,キャストに基づく新しい社会認知メタヒューリスティックの構築を目標とし,このアルゴリズムのいくつかのバージョンを時間遅延システムモデルの最適化に適用する。
論文 参考訳(メタデータ) (2022-10-23T22:21:10Z) - Distributed Evolution Strategies for Black-box Stochastic Optimization [42.90600124972943]
この研究は、分散ブラックボックス最適化への進化的アプローチに関するものである。
各作業者は、アルゴリズムによる問題の近似を個別に解くことができる。
問題のロバスト性を大幅に改善する2つの代替シミュレーション手法を提案する。
論文 参考訳(メタデータ) (2022-04-09T11:18:41Z) - Meta-Regularization: An Approach to Adaptive Choice of the Learning Rate
in Gradient Descent [20.47598828422897]
第一次下降法における学習率の適応的選択のための新しいアプローチであるtextit-Meta-Regularizationを提案する。
本手法は,正規化項を追加して目的関数を修正し,共同処理パラメータをキャストする。
論文 参考訳(メタデータ) (2021-04-12T13:13:34Z) - Particle Swarm Optimization: Fundamental Study and its Application to
Optimization and to Jetty Scheduling Problems [0.0]
従来の手法に関する進化的アルゴリズムの利点は、文献で大いに議論されている。
粒子群はそのような利点を共有しているが、計算コストの低減と実装の容易さが要求されるため、進化的アルゴリズムよりも優れている。
本論文は, それらのチューニングについて検討するものではなく, 従来の研究から汎用的な設定を抽出し, 様々な問題を最適化するために, 事実上同じアルゴリズムを用いている。
論文 参考訳(メタデータ) (2021-01-25T02:06:30Z) - Adaptive Gradient Method with Resilience and Momentum [120.83046824742455]
レジリエンスとモメンタム(AdaRem)を用いた適応勾配法を提案する。
AdaRemは、過去の1つのパラメータの変化方向が現在の勾配の方向と一致しているかどうかに応じてパラメータワイズ学習率を調整する。
本手法は,学習速度とテスト誤差の観点から,従来の適応学習率に基づくアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-10-21T14:49:00Z) - Variance-Reduced Off-Policy Memory-Efficient Policy Search [61.23789485979057]
政治政策の最適化は強化学習において難しい問題である。
オフポリシーアルゴリズムはメモリ効率が高く、オフポリシーサンプルから学ぶことができる。
論文 参考訳(メタデータ) (2020-09-14T16:22:46Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z) - On Hyper-parameter Tuning for Stochastic Optimization Algorithms [28.88646928299302]
本稿では,強化学習に基づく最適化アルゴリズムのハイパーパラメータをチューニングするための,最初のアルゴリズムフレームワークを提案する。
提案フレームワークはアルゴリズムにおけるハイパーパラメータチューニングの標準ツールとして利用できる。
論文 参考訳(メタデータ) (2020-03-04T12:29:12Z) - Adaptivity of Stochastic Gradient Methods for Nonconvex Optimization [71.03797261151605]
適応性は現代最適化理論において重要であるが、研究されていない性質である。
提案アルゴリズムは,PL目標に対して既存のアルゴリズムよりも優れた性能を保ちながら,PL目標に対して最適な収束性を実現することを実証した。
論文 参考訳(メタデータ) (2020-02-13T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。