論文の概要: Self-Adjusting Evolutionary Algorithms Are Slow on Multimodal Landscapes
- arxiv url: http://arxiv.org/abs/2404.12047v1
- Date: Thu, 18 Apr 2024 10:01:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 19:21:31.467116
- Title: Self-Adjusting Evolutionary Algorithms Are Slow on Multimodal Landscapes
- Title(参考訳): 自己調整型進化的アルゴリズムはマルチモーダルランドスケープで遅くなる
- Authors: Johannes Lengler, Konstantin Sturm,
- Abstract要約: 正の結果が他の局所最適値に拡張されないことを示す。
歪んだOneMaxベンチマークでは、自己調整の$(1, lambda)$-EAは、アルゴリズムがローカルオプティマからエスケープされるのを防ぐため、エリート的アルゴリズムと同じように遅くなる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The one-fifth rule and its generalizations are a classical parameter control mechanism in discrete domains. They have also been transferred to control the offspring population size of the $(1, \lambda)$-EA. This has been shown to work very well for hill-climbing, and combined with a restart mechanism it was recently shown by Hevia Fajardo and Sudholt to improve performance on the multi-modal problem Cliff drastically. In this work we show that the positive results do not extend to other types of local optima. On the distorted OneMax benchmark, the self-adjusting $(1, \lambda)$-EA is slowed down just as elitist algorithms because self-adaptation prevents the algorithm from escaping from local optima. This makes the self-adaptive algorithm considerably worse than good static parameter choices, which do allow to escape from local optima efficiently. We show this theoretically and complement the result with empirical runtime results.
- Abstract(参考訳): 一階法則とその一般化は離散領域における古典的なパラメータ制御機構である。
それらはまた、1, \lambda)$-EAの子孫の個体数を制御するために移動された。
これはヒルクライミングに非常に適していることが示されており、最近Hevia Fajardo と Sudholt によって、マルチモーダル問題 Cliff の性能を劇的に改善する再起動機構と組み合わされた。
この研究において、正の結果は他の種類の局所最適値に拡張されないことを示す。
歪んだOneMaxベンチマークでは、自己調整の$(1, \lambda)$-EAは、アルゴリズムが局所最適化から逃れるのを防いでいるため、エリート的アルゴリズムと同じように遅くなる。
これにより、自己適応アルゴリズムは良い静的パラメータ選択よりもかなり悪くなるため、局所最適化から効率的に逃れることができる。
理論的にこれを示し、実験実行結果を補完する。
関連論文リスト
- AlphaZeroES: Direct score maximization outperforms planning loss minimization [61.17702187957206]
実行時の計画では、シングルエージェントとマルチエージェントの両方の設定でエージェントのパフォーマンスが劇的に向上することが示されている。
実行時に計画するアプローチのファミリは、AlphaZeroとその変種で、Monte Carlo Tree Searchと、状態値とアクション確率を予測することによって検索をガイドするニューラルネットワークを使用する。
複数の環境にまたがって、エピソードスコアを直接最大化し、計画損失を最小限に抑えることを示す。
論文 参考訳(メタデータ) (2024-06-12T23:00:59Z) - ELRA: Exponential learning rate adaption gradient descent optimization
method [83.88591755871734]
我々は, 高速(指数率), ab initio(超自由)勾配に基づく適応法を提案する。
本手法の主な考え方は,状況認識による$alphaの適応である。
これは任意の次元 n の問題に適用でき、線型にしかスケールできない。
論文 参考訳(メタデータ) (2023-09-12T14:36:13Z) - Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - Minimax Optimization with Smooth Algorithmic Adversaries [59.47122537182611]
対戦相手が展開するスムーズなアルゴリズムに対して,Min-playerの新しいアルゴリズムを提案する。
本アルゴリズムは,制限周期のない単調進行を保証し,適切な勾配上昇数を求める。
論文 参考訳(メタデータ) (2021-06-02T22:03:36Z) - Self-Adjusting Population Sizes for Non-Elitist Evolutionary Algorithms:
Why Success Rates Matter [0.0]
進化的アルゴリズム(EA)は、親や子孫のサイズや突然変異率など、いくつかのパラメータを持つ汎用的なオプティマイザである。
最近の理論的研究により、自己調整パラメータ制御機構は離散的な問題においてEAの最高の静的パラメータよりも優れていることが示されている。
論文 参考訳(メタデータ) (2021-04-12T16:44:54Z) - Optimal Static Mutation Strength Distributions for the $(1+\lambda)$
Evolutionary Algorithm on OneMax [1.0965065178451106]
人口が十分に大きくなると、このような最適な分布は驚くほど複雑で直感に反する可能性がある。
人口が十分に大きくなると、このような最適な分布は驚くほど複雑で直感に反する可能性がある。
論文 参考訳(メタデータ) (2021-02-09T16:56:25Z) - Byzantine-Resilient Non-Convex Stochastic Gradient Descent [61.6382287971982]
敵対的レジリエントな分散最適化。
機械は独立して勾配を計算し 協力することができます
私達のアルゴリズムは新しい集中の技術およびサンプル複雑性に基づいています。
それは非常に実用的です:それはないときすべての前の方法の性能を改善します。
セッティングマシンがあります。
論文 参考訳(メタデータ) (2020-12-28T17:19:32Z) - Private Stochastic Convex Optimization: Optimal Rates in Linear Time [74.47681868973598]
本研究では,凸損失関数の分布から得られた個体群損失を最小化する問題について検討する。
Bassilyらによる最近の研究は、$n$のサンプルを与えられた過剰な人口損失の最適境界を確立している。
本稿では,余剰損失に対する最適境界を達成するとともに,$O(minn, n2/d)$グラデーション計算を用いて凸最適化アルゴリズムを導出する2つの新しい手法について述べる。
論文 参考訳(メタデータ) (2020-05-10T19:52:03Z) - Self-Adjusting Evolutionary Algorithms for Multimodal Optimization [0.0]
自己調整および自己適応機構は、二進探索空間の進化的アルゴリズムにおける静的設定よりも確実に優れている。
我々は、既存の進化アルゴリズムのモジュールとして追加できる、停滞検出と呼ばれるメカニズムを提案する。
論文 参考訳(メタデータ) (2020-04-07T11:02:10Z) - Does Comma Selection Help To Cope With Local Optima [9.853329403413701]
我々は、$(mu,lambda)$EAが$(mu+lambda)$EAに対してランタイム上の優位性をもたらすことはないことを示した。
これは、低次項から遠ざかるマルチモーダル問題に対する非エリートアルゴリズムの最初の実行時結果である。
論文 参考訳(メタデータ) (2020-04-02T21:39:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。