論文の概要: Adaptive strategy in differential evolution via explicit exploitation
and exploration controls
- arxiv url: http://arxiv.org/abs/2002.00612v2
- Date: Thu, 2 Dec 2021 04:46:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 08:29:09.692885
- Title: Adaptive strategy in differential evolution via explicit exploitation
and exploration controls
- Title(参考訳): 明示的なエクスプロイトと探索制御による微分進化における適応戦略
- Authors: Sheng Xin Zhang, Wing Shing Chan, Kit Sang Tang, Shao Yong Zheng
- Abstract要約: 本稿では,明示的適応スキーム (Ea scheme) という新しい戦略適応手法を提案する。
Eaスキームは複数の戦略を分離し、それらをオンデマンドで採用する。
ベンチマーク関数に関する実験的研究は、Eaスキームの有効性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing multi-strategy adaptive differential evolution (DE) commonly
involves trials of multiple strategies and then rewards better-performing ones
with more resources. However, the trials of an exploitative or explorative
strategy may result in over-exploitation or over-exploration. To improve the
performance, this paper proposes a new strategy adaptation method, named
explicit adaptation scheme (Ea scheme), which separates multiple strategies and
employs them on-demand. It is done by dividing the evolution process into
several Selective-candidate with Similarity Selection (SCSS) generations and
adaptive generations. In the SCSS generations, the exploitation and exploration
needs are learnt by utilizing a balanced strategy. To meet these needs, in
adaptive generations, two other strategies, exploitative or explorative is
adaptively used. Experimental studies on benchmark functions demonstrate the
effectiveness of Ea scheme when compared with its variants and other adaptation
methods. Furthermore, performance comparisons with state-of-the-art
evolutionary algorithms and swarm intelligence-based algorithms show that EaDE
is very competitive.
- Abstract(参考訳): 既存の多戦略適応微分進化(DE)は、一般に複数の戦略の試行を伴い、より多くの資源でより良い性能を発揮する。
しかし、搾取的または爆発的な戦略の試行は過剰な探索または過剰な探索をもたらす可能性がある。
そこで本研究では,複数の戦略を分離し,オンデマンドで使用する新しい戦略適応手法である明示的適応スキーム (ea scheme) を提案する。
進化過程を、類似性選択(scss)世代と適応世代のいくつかの選択的候補に分割して行う。
SCSS世代では、均衡戦略を利用して、エクスプロイトと探索のニーズが学習される。
これらのニーズを満たすために、適応世代では、他の2つの戦略、搾取的または探索的が適応的に使用される。
ベンチマーク関数に関する実験的研究は、Eaスキームをその変種や他の適応法と比較した場合の有効性を示す。
さらに、最先端の進化アルゴリズムやSwarmインテリジェンスベースのアルゴリズムと比較すると、EaDEは非常に競争力があることを示している。
関連論文リスト
- Investigate-Consolidate-Exploit: A General Strategy for Inter-Task Agent
Self-Evolution [92.84441068115517]
Investigate-Consolidate-Exploit(ICE)は、AIエージェントの適応性と柔軟性を高めるための新しい戦略である。
ICEは、真の自己進化のためのタスク間の知識の伝達を促進する。
XAgentフレームワークに関する我々の実験は、ICEの有効性を示し、API呼び出しを最大80%削減する。
論文 参考訳(メタデータ) (2024-01-25T07:47:49Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - REX: Rapid Exploration and eXploitation for AI Agents [103.68453326880456]
本稿では、REXと呼ばれるAIエージェントのための高速探索およびeXploitationのための改良されたアプローチを提案する。
REXは追加の報酬層を導入し、アッパー信頼境界(UCB)スコアに似た概念を統合し、より堅牢で効率的なAIエージェントのパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-07-18T04:26:33Z) - Variance-Reduced Gradient Estimation via Noise-Reuse in Online Evolution
Strategies [50.10277748405355]
Noise-Reuse Evolution Strategies (NRES) は、非バイアスのオンライン進化戦略の一般的なクラスである。
NRESの結果は既存のAD法やES法よりも早く,様々なアプリケーションにまたがるウォールクロック時間とステップ数で収束することを示す。
論文 参考訳(メタデータ) (2023-04-21T17:53:05Z) - Diverse Policy Optimization for Structured Action Space [59.361076277997704]
エネルギーベースモデル(EBM)として構造化された行動空間における政策をモデル化するための多元的政策最適化(DPO)を提案する。
新しい強力な生成モデルであるGFlowNetは、効率よく多様なEMMベースのポリシーサンプリングとして導入されている。
ATSCとBattleベンチマークの実験では、DPOが驚くほど多様なポリシーを効率的に発見できることが示されている。
論文 参考訳(メタデータ) (2023-02-23T10:48:09Z) - Evolutionary Action Selection for Gradient-based Policy Learning [6.282299638495976]
進化的アルゴリズム(EA)とDeep Reinforcement Learning(DRL)が最近組み合わされ、より優れたポリシー学習のための2つのソリューションの利点が統合された。
本稿では、EAとDRLの新たな組み合わせである進化的行動選択遅延Deep Deterministic Policy Gradient (EAS-TD3)を提案する。
論文 参考訳(メタデータ) (2022-01-12T03:31:21Z) - Effects of Different Optimization Formulations in Evolutionary
Reinforcement Learning on Diverse Behavior Generation [2.359091475921131]
本稿では,多目的最適化を利用した既存の進化的強化学習フレームワークについて考察する。
アタリゲームの実験では、目的を考慮しない最適化の定式化は多様性を生み出すのに等しく失敗し、目の前の問題を解くのが苦手な出力エージェントさえも失敗すると強調されている。
論文 参考訳(メタデータ) (2021-10-15T14:41:42Z) - Behavior-based Neuroevolutionary Training in Reinforcement Learning [3.686320043830301]
本稿では,神経進化的最適化と価値に基づく強化学習を組み合わせたハイブリッドアルゴリズムを提案する。
この目的のために,エージェントポリシーの生成と最適化のための異なる手法を統合し,多様な集団を創出する。
その結果, 進化的手法のサンプル効率と学習速度を向上できることがわかった。
論文 参考訳(メタデータ) (2021-05-17T15:40:42Z) - Portfolio Search and Optimization for General Strategy Game-Playing [58.896302717975445]
ローリングホライズン進化アルゴリズムに基づく最適化とアクション選択のための新しいアルゴリズムを提案する。
エージェントのパラメータとポートフォリオセットの最適化について,N-tuple Bandit Evolutionary Algorithmを用いて検討する。
エージェントの性能分析により,提案手法はすべてのゲームモードによく一般化し,他のポートフォリオ手法よりも優れることが示された。
論文 参考訳(メタデータ) (2021-04-21T09:28:28Z) - Improved active output selection strategy for noisy environments [0.0]
モデルベースのキャリブレーションに必要なテストベンチ時間をテスト設計のためのアクティブラーニングメソッドで削減できます。
本稿では,アクティブ出力選択のための改良戦略を提案する。
論文 参考訳(メタデータ) (2021-01-10T08:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。