論文の概要: Adaptive strategy in differential evolution via explicit exploitation
and exploration controls
- arxiv url: http://arxiv.org/abs/2002.00612v2
- Date: Thu, 2 Dec 2021 04:46:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 08:29:09.692885
- Title: Adaptive strategy in differential evolution via explicit exploitation
and exploration controls
- Title(参考訳): 明示的なエクスプロイトと探索制御による微分進化における適応戦略
- Authors: Sheng Xin Zhang, Wing Shing Chan, Kit Sang Tang, Shao Yong Zheng
- Abstract要約: 本稿では,明示的適応スキーム (Ea scheme) という新しい戦略適応手法を提案する。
Eaスキームは複数の戦略を分離し、それらをオンデマンドで採用する。
ベンチマーク関数に関する実験的研究は、Eaスキームの有効性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing multi-strategy adaptive differential evolution (DE) commonly
involves trials of multiple strategies and then rewards better-performing ones
with more resources. However, the trials of an exploitative or explorative
strategy may result in over-exploitation or over-exploration. To improve the
performance, this paper proposes a new strategy adaptation method, named
explicit adaptation scheme (Ea scheme), which separates multiple strategies and
employs them on-demand. It is done by dividing the evolution process into
several Selective-candidate with Similarity Selection (SCSS) generations and
adaptive generations. In the SCSS generations, the exploitation and exploration
needs are learnt by utilizing a balanced strategy. To meet these needs, in
adaptive generations, two other strategies, exploitative or explorative is
adaptively used. Experimental studies on benchmark functions demonstrate the
effectiveness of Ea scheme when compared with its variants and other adaptation
methods. Furthermore, performance comparisons with state-of-the-art
evolutionary algorithms and swarm intelligence-based algorithms show that EaDE
is very competitive.
- Abstract(参考訳): 既存の多戦略適応微分進化(DE)は、一般に複数の戦略の試行を伴い、より多くの資源でより良い性能を発揮する。
しかし、搾取的または爆発的な戦略の試行は過剰な探索または過剰な探索をもたらす可能性がある。
そこで本研究では,複数の戦略を分離し,オンデマンドで使用する新しい戦略適応手法である明示的適応スキーム (ea scheme) を提案する。
進化過程を、類似性選択(scss)世代と適応世代のいくつかの選択的候補に分割して行う。
SCSS世代では、均衡戦略を利用して、エクスプロイトと探索のニーズが学習される。
これらのニーズを満たすために、適応世代では、他の2つの戦略、搾取的または探索的が適応的に使用される。
ベンチマーク関数に関する実験的研究は、Eaスキームをその変種や他の適応法と比較した場合の有効性を示す。
さらに、最先端の進化アルゴリズムやSwarmインテリジェンスベースのアルゴリズムと比較すると、EaDEは非常に競争力があることを示している。
関連論文リスト
- Deep Reinforcement Learning for Online Optimal Execution Strategies [49.1574468325115]
本稿では,動的な金融市場における非マルコフ的最適実行戦略の学習に挑戦する。
我々は,Deep Deterministic Policy Gradient(DDPG)に基づく新しいアクター批判アルゴリズムを提案する。
提案アルゴリズムは最適実行戦略の近似に成功していることを示す。
論文 参考訳(メタデータ) (2024-10-17T12:38:08Z) - An Efficient Reconstructed Differential Evolution Variant by Some of the Current State-of-the-art Strategies for Solving Single Objective Bound Constrained Problems [5.095287502726488]
本稿では,再構成微分進化 (Restructed differential evolution, RDE) と呼ばれる戦略再結合および再構成微分進化アルゴリズムを提案する。
2024年のIEEE Congress on Evolutionary Computationのベンチマークスイートに基づいて、RDEや他の先進的な微分進化変種を試験した。
論文 参考訳(メタデータ) (2024-04-25T01:48:44Z) - RLEMMO: Evolutionary Multimodal Optimization Assisted By Deep Reinforcement Learning [8.389454219309837]
マルチモーダル最適化問題 (MMOP) は, 限られた関数評価において困難となる最適解の探索を必要とする。
本稿では,メタブラックボックス最適化フレームワークであるRLEMMOを提案する。
品質と多様性の両方を促進する新しい報酬メカニズムにより、RLEMMOはポリシー勾配アルゴリズムを用いて効果的に訓練できる。
論文 参考訳(メタデータ) (2024-04-12T05:02:49Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - REX: Rapid Exploration and eXploitation for AI Agents [103.68453326880456]
本稿では、REXと呼ばれるAIエージェントのための高速探索およびeXploitationのための改良されたアプローチを提案する。
REXは追加の報酬層を導入し、アッパー信頼境界(UCB)スコアに似た概念を統合し、より堅牢で効率的なAIエージェントのパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-07-18T04:26:33Z) - Variance-Reduced Gradient Estimation via Noise-Reuse in Online Evolution
Strategies [50.10277748405355]
Noise-Reuse Evolution Strategies (NRES) は、非バイアスのオンライン進化戦略の一般的なクラスである。
NRESの結果は既存のAD法やES法よりも早く,様々なアプリケーションにまたがるウォールクロック時間とステップ数で収束することを示す。
論文 参考訳(メタデータ) (2023-04-21T17:53:05Z) - Diverse Policy Optimization for Structured Action Space [59.361076277997704]
エネルギーベースモデル(EBM)として構造化された行動空間における政策をモデル化するための多元的政策最適化(DPO)を提案する。
新しい強力な生成モデルであるGFlowNetは、効率よく多様なEMMベースのポリシーサンプリングとして導入されている。
ATSCとBattleベンチマークの実験では、DPOが驚くほど多様なポリシーを効率的に発見できることが示されている。
論文 参考訳(メタデータ) (2023-02-23T10:48:09Z) - Evolutionary Action Selection for Gradient-based Policy Learning [6.282299638495976]
進化的アルゴリズム(EA)とDeep Reinforcement Learning(DRL)が最近組み合わされ、より優れたポリシー学習のための2つのソリューションの利点が統合された。
本稿では、EAとDRLの新たな組み合わせである進化的行動選択遅延Deep Deterministic Policy Gradient (EAS-TD3)を提案する。
論文 参考訳(メタデータ) (2022-01-12T03:31:21Z) - Portfolio Search and Optimization for General Strategy Game-Playing [58.896302717975445]
ローリングホライズン進化アルゴリズムに基づく最適化とアクション選択のための新しいアルゴリズムを提案する。
エージェントのパラメータとポートフォリオセットの最適化について,N-tuple Bandit Evolutionary Algorithmを用いて検討する。
エージェントの性能分析により,提案手法はすべてのゲームモードによく一般化し,他のポートフォリオ手法よりも優れることが示された。
論文 参考訳(メタデータ) (2021-04-21T09:28:28Z) - Improved active output selection strategy for noisy environments [0.0]
モデルベースのキャリブレーションに必要なテストベンチ時間をテスト設計のためのアクティブラーニングメソッドで削減できます。
本稿では,アクティブ出力選択のための改良戦略を提案する。
論文 参考訳(メタデータ) (2021-01-10T08:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。