論文の概要: Improving Intelligence of Evolutionary Algorithms Using Experience Share
and Replay
- arxiv url: http://arxiv.org/abs/2009.08936v1
- Date: Mon, 10 Aug 2020 17:27:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 22:10:04.643804
- Title: Improving Intelligence of Evolutionary Algorithms Using Experience Share
and Replay
- Title(参考訳): 経験共有と再生を用いた進化的アルゴリズムの知性向上
- Authors: Majdi I. Radaideh, Koroush Shirvan
- Abstract要約: 粒子群最適化(PSO)、進化戦略(ES)、シミュレート・アニーリング(SA)を組み合わせた新しいアプローチPESAを提案する。
PESAは、ソリューションを共有リプレイメモリに格納することで、3つのアルゴリズムをハイブリダイズする。
次に、PESAは優先順位付けされたリプレイを適用して、3つのアルゴリズム間のデータを、その適合度と優先度に基づいて頻繁な形式で再分配する。
- 参考スコア(独自算出の注目度): 1.0965065178451106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose PESA, a novel approach combining Particle Swarm Optimisation
(PSO), Evolution Strategy (ES), and Simulated Annealing (SA) in a hybrid
Algorithm, inspired from reinforcement learning. PESA hybridizes the three
algorithms by storing their solutions in a shared replay memory. Next, PESA
applies prioritized replay to redistribute data between the three algorithms in
frequent form based on their fitness and priority values, which significantly
enhances sample diversity and algorithm exploration. Additionally, greedy
replay is used implicitly within SA to improve PESA exploitation close to the
end of evolution. The validation against 12 high-dimensional continuous
benchmark functions shows superior performance by PESA against standalone ES,
PSO, and SA, under similar initial starting points, hyperparameters, and number
of generations. PESA shows much better exploration behaviour, faster
convergence, and ability to find the global optima compared to its standalone
counterparts. Given the promising performance, PESA can offer an efficient
optimisation option, especially after it goes through additional
multiprocessing improvements to handle complex and expensive fitness functions.
- Abstract(参考訳): 我々は、強化学習に触発されたハイブリッドアルゴリズムで、Particle Swarm Optimisation(PSO)、Evolution Strategy(ES)、Simulated Annealing(SA)を組み合わせた新しいアプローチPESAを提案する。
PESAは、ソリューションを共有リプレイメモリに格納することで、3つのアルゴリズムをハイブリダイズする。
次に、PESAは3つのアルゴリズム間のデータを、その適合度と優先度に基づいて頻繁な形で再分配するために優先順位付けされたリプレイを適用し、サンプルの多様性とアルゴリズム探索を大幅に向上させる。
さらに、greedy replayは進化の終わりに近いPESAのエクスプロイトを改善するためにSA内で暗黙的に使用される。
12個の高次元連続ベンチマーク関数に対する検証は、PESAによる独立ES、PSO、SAに対して、同様の初期開始点、ハイパーパラメータ、世代数での優れた性能を示す。
PESAは、より優れた探査行動、より高速な収束、グローバルな最適点を見つける能力を示す。
PESAは有望なパフォーマンスを前提に、特に複雑で高価なフィットネス機能を扱うためのマルチプロセスの改善を経て、効率的な最適化オプションを提供することができる。
関連論文リスト
- Adaptive Preference Scaling for Reinforcement Learning with Human Feedback [103.36048042664768]
人間からのフィードバックからの強化学習(RLHF)は、AIシステムと人間の価値を合わせるための一般的なアプローチである。
本稿では,分散ロバスト最適化(DRO)に基づく適応的優先損失を提案する。
提案手法は多用途であり,様々な選好最適化フレームワークに容易に適用可能である。
論文 参考訳(メタデータ) (2024-06-04T20:33:22Z) - Orthogonally Initiated Particle Swarm Optimization with Advanced Mutation for Real-Parameter Optimization [0.04096453902709291]
本稿では,多角形PSO(orthogonal PSO with Mutation,OPSO-m)と呼ばれる拡張粒子群(PSO)を紹介する。
PSOのための改良された初期Swarmを育むための配列ベースの学習手法を提案し、Swarmベースの最適化アルゴリズムの適応性を大幅に向上させた。
この記事はさらに、人口を正規グループとエリートグループに分割する、アーカイブベースの自己適応学習戦略を提示する。
論文 参考訳(メタデータ) (2024-05-21T07:16:20Z) - Joint User Association, Interference Cancellation and Power Control for
Multi-IRS Assisted UAV Communications [80.35959154762381]
インテリジェント反射面(IRS)支援無人航空機(UAV)通信は、地上基地局の負荷を低コストで軽減することが期待されている。
既存の研究は主に、複数のIRSではなく単一のIRSの配置とリソース割り当てに焦点を当てている。
我々は,共同IRSユーザアソシエーションのための新しい最適化アルゴリズム,UAVの軌道最適化,逐次干渉キャンセル(SIC)復号命令スケジューリング,電力割り当てを提案する。
論文 参考訳(メタデータ) (2023-12-08T01:57:10Z) - Accelerating the Evolutionary Algorithms by Gaussian Process Regression
with $\epsilon$-greedy acquisition function [2.7716102039510564]
本稿では,最適化の収束を早めるために,エリート個人を推定する新しい手法を提案する。
我々の提案には、エリート個人を推定し、最適化の収束を加速する幅広い見通しがある。
論文 参考訳(メタデータ) (2022-10-13T07:56:47Z) - Towards Learning Universal Hyperparameter Optimizers with Transformers [57.35920571605559]
我々は,テキストベースのトランスフォーマーHPOフレームワークであるOptFormerを紹介した。
実験の結果,OptFormerは少なくとも7種類のHPOアルゴリズムを模倣できることがわかった。
論文 参考訳(メタデータ) (2022-05-26T12:51:32Z) - Improving LSHADE by means of a pre-screening mechanism [0.0]
本稿では,LSHADEアルゴリズムを事前スクリーニング機構(psLSHADE)の形で拡張する。
提案した事前スクリーニングは, 特定の初期サンプリング手順, サンプルのアーカイブ, フィットネス機能の大域的線形メタモデルという3つのコンポーネントに依存している。
psLSHADEの性能は、CEC2021ベンチマークを用いて、1次元あたり102-104 FFEの最適化予算を持つ高価なシナリオで評価される。
論文 参考訳(メタデータ) (2022-04-08T14:52:46Z) - Optimal Correlated Equilibria in General-Sum Extensive-Form Games: Fixed-Parameter Algorithms, Hardness, and Two-Sided Column-Generation [78.48747645545944]
ワイドフォームゲームにおいて,様々な種類の最適平衡を求める問題について検討する。
これら3つの概念のすべてに最適な平衡を計算するための新しいアルゴリズムを導入する。
論文 参考訳(メタデータ) (2022-03-14T15:21:18Z) - APS: Active Pretraining with Successor Features [96.24533716878055]
非エントロピーと後継指標であるHansenFastを再解釈して組み合わせることで、難解な相互情報を効率的に最適化できることを示す。
提案手法は,非エントロピーを用いて環境を探索し,探索したデータを効率的に活用して動作を学習する。
論文 参考訳(メタデータ) (2021-08-31T16:30:35Z) - Scalable Feature Subset Selection for Big Data using Parallel Hybrid
Evolutionary Algorithm based Wrapper in Apache Spark [4.241208172557663]
本稿では,Apache Spark環境下での並列および分散ハイブリッド進化アルゴリズム(EA)に基づく機能サブセット選択(FSS)ラッパーを提案する。
提案アルゴリズムの有効性は,サイバーセキュリティと生物学領域から得られた,様々な特徴空間次元の5つの大きなデータセットに対して検証される。
論文 参考訳(メタデータ) (2021-06-26T11:59:02Z) - Maximum Mutation Reinforcement Learning for Scalable Control [25.935468948833073]
強化学習(Reinforcement Learning, RL)は、大規模状態空間に対するデータ効率と最適制御を、スケーラブルな性能で実証している。
本稿では,スケーラブルなRLアルゴリズムであるEvolution-based Soft Actor-Critic (ESAC)を提案する。
論文 参考訳(メタデータ) (2020-07-24T16:29:19Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。