論文の概要: All Mutation Rates $c/n$ for the $(1+1)$ Evolutionary Algorithm
- arxiv url: http://arxiv.org/abs/2602.23573v1
- Date: Fri, 27 Feb 2026 00:52:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.186046
- Title: All Mutation Rates $c/n$ for the $(1+1)$ Evolutionary Algorithm
- Title(参考訳): All Mutation Rates $c/n$ for the $(1+1)$ Evolutionary Algorithm
- Authors: Andrew James Kelley,
- Abstract要約: すべての実数 $c geq 1$ およびすべての $varepsilon > 0$ に対して、フィットネス関数 $f : 0,1n to mathbbR$ が存在し、$(1+1)$ の進化的アルゴリズムが $f$ のとき、$p_n$ のとき、$p_n approx c/n$ のとき、$|np_n - c| varepsilon$ を満たす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For every real number $c \geq 1$ and for all $\varepsilon > 0$, there is a fitness function $f : \{0,1\}^n \to \mathbb{R}$ for which the optimal mutation rate for the $(1+1)$ evolutionary algorithm on $f$, denoted $p_n$, satisfies $p_n \approx c/n$ in that $|np_n - c| < \varepsilon$. In other words, the set of all $c \geq 1$ for which the mutation rate $c/n$ is optimal for the $(1+1)$ EA is dense in the interval $[1, \infty)$. To show this, a fitness function is introduced which is called HillPathJump.
- Abstract(参考訳): すべての実数 $c \geq 1$ およびすべての $\varepsilon > 0$ に対して、フィットネス関数 $f : \{0,1\}^n \to \mathbb{R}$ が存在し、$f$ 上の$(1+1)$の進化的アルゴリズムは $p_n$ で表され、$|np_n - c| < \varepsilon$ で$p_n \approx c/n$ を満たす。
言い換えれば、$c/n$ の突然変異率が $(1+1)$ EA に対して最適であるすべての $c \geq 1$ の集合は、$[1, \infty)$ の間隔で密である。
これを示すために、HillPathJumpと呼ばれるフィットネス機能が導入される。
関連論文リスト
- All Constant Mutation Rates for the $(1+1)$ Evolutionary Algorithm [0.0]
0, 1)$ の全ての突然変異率 $p に対して、$(p-varepsilon, p+varepsilon)$ の最適な突然変異率が$(p-varepsilon, p+varepsilon)$ の進化アルゴリズムが$(p-varepsilon, p+varepsilon)$ であるような、一意の最大値を持つ適合関数 $f : 0,1n と mathbbR$ が存在する。
論文 参考訳(メタデータ) (2026-02-22T00:30:45Z) - Near-Optimal Convergence of Accelerated Gradient Methods under Generalized and $(L_0, L_1)$-Smoothness [57.93371273485736]
我々は、最近提案された$ell$-smoothness条件$|nabla2f(x)|| le ellleft(||nabla f(x)||right),$$$L$-smoothnessと$(L_0,L_1)$-smoothnessを一般化する関数を持つ凸最適化問題の一階法について検討する。
論文 参考訳(メタデータ) (2025-08-09T08:28:06Z) - On the $O(\frac{\sqrt{d}}{K^{1/4}})$ Convergence Rate of AdamW Measured by $\ell_1$ Norm [52.95596504632859]
本稿では、$ell_1$ノルムで測定されたAdamWに対して、収束速度 $frac1Ksum_k=1KEleft[||nabla f(xk)||_1right]leq O(fracsqrtdCK1/4)$を確立する。
結果は、二重モーメント機構を用いたAdamW変種であるNAdamWに拡張し、同じ収束率を維持していることを示す。
論文 参考訳(メタデータ) (2025-05-17T05:02:52Z) - LevAttention: Time, Space, and Streaming Efficient Algorithm for Heavy Attentions [54.54897832889028]
任意の$K$に対して、$n$とは独立に「普遍集合」$Uサブセット[n]$が存在し、任意の$Q$と任意の行$i$に対して、大きな注目スコアが$A_i,j$ in row $i$ of $A$は全て$jin U$を持つことを示す。
我々は、視覚変換器のスキームの利点を実証的に示し、トレーニング中に我々の普遍的なセットを使用する新しいモデルのトレーニング方法を示した。
論文 参考訳(メタデータ) (2024-10-07T19:47:13Z) - Achieving Tight $O(4^k)$ Runtime Bounds on Jump$_k$ by Proving that Genetic Algorithms Evolve Near-Maximal Population Diversity [1.8434042562191815]
我々は、$(mu+1)$-$lambda_c$-GAの集団の多様性が、ほぼ完全な多様性の均衡に収束することを示した。
また、この分析は、JUMP$_k、delta$、HURDLEなどの他のユニタリ化関数にも拡張可能であることを示す。
論文 参考訳(メタデータ) (2024-04-10T14:50:43Z) - Fast $(1+\varepsilon)$-Approximation Algorithms for Binary Matrix
Factorization [54.29685789885059]
本稿では, 2次行列分解(BMF)問題に対する効率的な$(1+varepsilon)$-approximationアルゴリズムを提案する。
目標は、低ランク因子の積として$mathbfA$を近似することである。
我々の手法はBMF問題の他の一般的な変種に一般化する。
論文 参考訳(メタデータ) (2023-06-02T18:55:27Z) - Self-adjusting Population Sizes for the $(1, \lambda)$-EA on Monotone
Functions [7.111443975103329]
突然変異率$c/n$ for $cle 1$で、1:s+1)$-successルールで集団サイズを適応的に制御する。
この$c=1$のセットアップは1maxで$s1$で効率的であるが、$s ge 18$で非効率的であることを示す。
論文 参考訳(メタデータ) (2022-04-01T15:46:12Z) - Low-Rank Approximation with $1/\epsilon^{1/3}$ Matrix-Vector Products [58.05771390012827]
我々は、任意のSchatten-$p$ノルムの下で、低ランク近似のためのクリロフ部分空間に基づく反復法について研究する。
我々の主な成果は、$tildeO(k/sqrtepsilon)$ matrix-vector productのみを使用するアルゴリズムである。
論文 参考訳(メタデータ) (2022-02-10T16:10:41Z) - Learning low-degree functions from a logarithmic number of random
queries [77.34726150561087]
任意の整数 $ninmathbbN$, $din1,ldots,n$ および任意の $varepsilon,deltain(0,1)$ に対して、有界関数 $f:-1,1nto[-1,1]$ に対して、少なくとも$d$ の次数を学ぶことができる。
論文 参考訳(メタデータ) (2021-09-21T13:19:04Z) - Sharper bounds for online learning of smooth functions of a single
variable [0.0]
ここでは$opt_1+epsilon(mathcalF_q) = Theta(epsilon-frac12)$を示します。
また、$opt_1+epsilon(mathcalF_q) = Theta(epsilon-frac12)$ も示します。
論文 参考訳(メタデータ) (2021-05-30T23:06:21Z) - Convergence Rate of the (1+1)-Evolution Strategy with Success-Based
Step-Size Adaptation on Convex Quadratic Functions [20.666734673282498]
1+1)-進化戦略(ES)と成功に基づくステップサイズ適応を一般凸二次関数で解析する。
1+1)-ES の収束速度は、一般凸二次函数上で明示的に厳密に導かれる。
論文 参考訳(メタデータ) (2021-03-02T09:03:44Z) - On the Complexity of Minimizing Convex Finite Sums Without Using the
Indices of the Individual Functions [62.01594253618911]
有限和の有限ノイズ構造を利用して、大域オラクルモデルの下での一致する$O(n2)$-upper境界を導出する。
同様のアプローチを踏襲したSVRGの新規な適応法を提案し、これはオラクルと互換性があり、$tildeO(n2+nsqrtL/mu)log (1/epsilon)$と$O(nsqrtL/epsilon)$, for $mu>0$と$mu=0$の複雑さ境界を実現する。
論文 参考訳(メタデータ) (2020-02-09T03:39:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。