論文の概要: Stagnation in Evolutionary Algorithms: Convergence $\neq$ Optimality
- arxiv url: http://arxiv.org/abs/2505.01036v1
- Date: Fri, 02 May 2025 06:19:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:19.931918
- Title: Stagnation in Evolutionary Algorithms: Convergence $\neq$ Optimality
- Title(参考訳): 進化的アルゴリズムの安定化:収束$\neq$最適性
- Authors: Xiaojun Zhou,
- Abstract要約: 停滞は進化アルゴリズムの収束を阻害し、収束は本質的に最適性を示すと広く信じられている。
この研究は、個体の停滞が実際に全人口の収束を促進することを初めて強調した。
- 参考スコア(独自算出の注目度): 4.715630709185073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the evolutionary computation community, it is widely believed that stagnation impedes convergence in evolutionary algorithms, and that convergence inherently indicates optimality. However, this perspective is misleading. In this study, it is the first to highlight that the stagnation of an individual can actually facilitate the convergence of the entire population, and convergence does not necessarily imply optimality, not even local optimality. Convergence alone is insufficient to ensure the effectiveness of evolutionary algorithms. Several counterexamples are provided to illustrate this argument.
- Abstract(参考訳): 進化計算のコミュニティでは、停滞は進化アルゴリズムの収束を阻害し、収束は本質的に最適性を示すと広く信じられている。
しかし、この見方は誤解を招く。
本研究では、個体の停滞が実際に全集団の収束を促進することは初めてであり、収束は必ずしも局所的最適性ではなく、必ずしも最適性を意味するものではないことを強調する。
収束だけでは進化的アルゴリズムの有効性を保証するには不十分である。
この議論を説明するためにいくつかの反例が提供されている。
関連論文リスト
- A Generalization Result for Convergence in Learning-to-Optimize [4.112909937203119]
最適化における従来の収束保証は幾何学的引数に基づいており、アルゴリズムには適用できない。
私たちは、私たちの知識のベストを証明する最初の人であり、私たちの知識のベストを証明する最初の人です。私たちは、私たちの知識のベストを証明する最初の人です。私たちは、私たちの知識のベストを証明する最初の人です。私たちは、私たちの知識のベストを証明する最初の人です。私たちは、私たちの知識のベストを証明する最初の人です。私たちは、私たちの知識のベストを証明する最初の人です。私たちは、私たちの知識のベストを証明する最初の人です。私たちは、私たちの知識のベストを証明する最初の人です。
論文 参考訳(メタデータ) (2024-10-10T08:17:04Z) - Strongly-polynomial time and validation analysis of policy gradient methods [3.722665817361884]
本稿では,有限状態および行動マルコフ決定過程(MDP)と強化学習(RL)のための,優位ギャップ関数と呼ばれる新しい終了基準を提案する。
この利点ギャップ関数をステップサイズルールの設計に組み込むことで、最適ポリシーの定常状態分布に依存しない新しい線形収束率を導出する。
政策勾配法に対してそのような強い収束特性が確立されたのはこれが初めてである。
論文 参考訳(メタデータ) (2024-09-28T18:56:48Z) - Convergence of Adam for Non-convex Objectives: Relaxed Hyperparameters
and Non-ergodic Case [0.0]
本稿では,バニラ・アダムの収束と非エルゴード収束の課題について考察する。
これらの発見は、非ゴーディック最適化問題を解くために、Adamの確固たる理論基盤を構築する。
論文 参考訳(メタデータ) (2023-07-20T12:02:17Z) - Convergence of Adam Under Relaxed Assumptions [72.24779199744954]
我々は、アダムがより現実的な条件下で、$O(epsilon-4)$勾配複雑性で$epsilon$-定常点に収束することを示している。
また、Adamの分散還元版を$O(epsilon-3)$の加速勾配複雑性で提案する。
論文 参考訳(メタデータ) (2023-04-27T06:27:37Z) - Asymptotic convergence of iterative optimization algorithms [1.6328866317851185]
本稿では,反復最適化アルゴリズムの一般的なフレームワークを紹介する。
適切な仮定の下では、収束率を低くすることができる。
私たちは正確な収束率を提供します。
論文 参考訳(メタデータ) (2023-02-24T09:58:56Z) - Stochastic Gradient Descent-Ascent and Consensus Optimization for Smooth
Games: Convergence Analysis under Expected Co-coercivity [49.66890309455787]
本稿では,SGDA と SCO の最終的な収束保証として,期待されるコヒーレンシティ条件を導入し,その利点を説明する。
定常的なステップサイズを用いた場合、両手法の線形収束性を解の近傍に証明する。
我々の収束保証は任意のサンプリングパラダイムの下で保たれ、ミニバッチの複雑さに関する洞察を与える。
論文 参考訳(メタデータ) (2021-06-30T18:32:46Z) - Painless step size adaptation for SGD [0.0]
収束と一般化は、ニューラルネットワークのパフォーマンスの重要な側面である。
テストの収束と一般化を明示的に規定する4つの構成を持つLIGHT関数を提案する。
論文 参考訳(メタデータ) (2021-02-01T14:05:41Z) - Recent Theoretical Advances in Non-Convex Optimization [56.88981258425256]
近年、深層ネットワークにおける非最適化アルゴリズムの解析やデータ問題への関心が高まっており、非最適化のための理論的最適化アルゴリズムの最近の結果の概要を概説する。
論文 参考訳(メタデータ) (2020-12-11T08:28:51Z) - Linear Last-iterate Convergence in Constrained Saddle-point Optimization [48.44657553192801]
我々は、OGDA(Optimistic Gradient Descent Ascent)とOMWU(Optimistic Multiplicative Weights Update)に対する最終段階の独特さの理解を著しく拡大する。
平衡が一意である場合、線形終端収束は、値が普遍定数に設定された学習速度で達成されることを示す。
任意のポリトープ上の双線型ゲームがこの条件を満たすことを示し、OGDAは一意の平衡仮定なしで指数関数的に高速に収束することを示した。
論文 参考訳(メタデータ) (2020-06-16T20:53:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。