論文の概要: Self-adjusting Population Sizes for the $(1, \lambda)$-EA on Monotone
Functions
- arxiv url: http://arxiv.org/abs/2204.00531v2
- Date: Wed, 12 Jul 2023 10:58:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 20:46:54.382021
- Title: Self-adjusting Population Sizes for the $(1, \lambda)$-EA on Monotone
Functions
- Title(参考訳): モノトン関数上の(1, \lambda)$-EAに対する自己調整型人口サイズ
- Authors: Marc Kaufmann, Maxime Larcher, Johannes Lengler, Xun Zou
- Abstract要約: 突然変異率$c/n$ for $cle 1$で、1:s+1)$-successルールで集団サイズを適応的に制御する。
この$c=1$のセットアップは1maxで$s1$で効率的であるが、$s ge 18$で非効率的であることを示す。
- 参考スコア(独自算出の注目度): 7.111443975103329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the $(1,\lambda)$-EA with mutation rate $c/n$ for $c\le 1$, where
the population size is adaptively controlled with the $(1:s+1)$-success rule.
Recently, Hevia Fajardo and Sudholt have shown that this setup with $c=1$ is
efficient on \onemax for $s<1$, but inefficient if $s \ge 18$. Surprisingly,
the hardest part is not close to the optimum, but rather at linear distance. We
show that this behavior is not specific to \onemax. If $s$ is small, then the
algorithm is efficient on all monotone functions, and if $s$ is large, then it
needs superpolynomial time on all monotone functions. In the former case, for
$c<1$ we show a $O(n)$ upper bound for the number of generations and $O(n\log
n)$ for the number of function evaluations, and for $c=1$ we show $O(n\log n)$
generations and $O(n^2\log\log n)$ evaluations. We also show formally that
optimization is always fast, regardless of $s$, if the algorithm starts in
proximity of the optimum. All results also hold in a dynamic environment where
the fitness function changes in each generation.
- Abstract(参考訳): 我々は、$(1:s+1)$-successルールに従って人口サイズが適応的に制御される$(1,\lambda)$-eaを$c/n$ for $c\le 1$で研究する。
最近、hevia fajardo と sudholt は、$c=1$ のこの設定は、$s<1$ で \onemax で効率的であるが、$s \ge 18$ では非効率であることを示した。
驚くべきことに、最も硬い部分は最適に近いのではなく、むしろ直線距離にある。
この挙動が \onemax に特有でないことを示す。
もし$s$が小さいなら、アルゴリズムはすべての単調関数で効率的であり、もし$s$が大きいなら、すべての単調関数で超多項式時間を必要とする。
前者の場合、$c<1$に対して、世代数に対して$o(n)$上限を示し、関数評価数に対して$o(n\log n)$を示し、$c=1$に対して$o(n\log n)$世代と$o(n^2\log n)$評価を示す。
また、アルゴリズムが最適値に近づいた場合、$s$にかかわらず、最適化は常に高速であることを示す。
すべての結果は、各世代で適合関数が変化する動的環境にも保持される。
関連論文リスト
- LevAttention: Time, Space, and Streaming Efficient Algorithm for Heavy Attentions [54.54897832889028]
任意の$K$に対して、$n$とは独立に「普遍集合」$Uサブセット[n]$が存在し、任意の$Q$と任意の行$i$に対して、大きな注目スコアが$A_i,j$ in row $i$ of $A$は全て$jin U$を持つことを示す。
我々は、視覚変換器のスキームの利点を実証的に示し、トレーニング中に我々の普遍的なセットを使用する新しいモデルのトレーニング方法を示した。
論文 参考訳(メタデータ) (2024-10-07T19:47:13Z) - Proven Runtime Guarantees for How the MOEA/D Computes the Pareto Front From the Subproblem Solutions [9.044970217182117]
分解に基づく多目的進化アルゴリズム(MOEA/D)は、与えられた多目的関数$f$を直接最適化するのではなく、共進化的に$f$の単目的サブプロブレム$N + 1$を最適化する。
我々は、標準突然変異演算子のみを持つMOEA/Dが、OneMinMaxベンチマークのPareto全体を計算する方法について、初めて分析する。
パワーローに対する我々の全体的な境界は、MOEA/D が$N = O(nbeta - 1)$ に対して最も良く、結果として$O(n) となることを示唆している。
論文 参考訳(メタデータ) (2024-05-02T05:32:19Z) - Dueling Optimization with a Monotone Adversary [35.850072415395395]
凸最適化の一般化である単調逆数を用いたデュエル最適化の問題点について検討する。
目的は、最小値$mathbfx*$の関数$fcolon XをmathbbRdに変換するために、オンラインアルゴリズムを設計することである。
論文 参考訳(メタデータ) (2023-11-18T23:55:59Z) - A Whole New Ball Game: A Primal Accelerated Method for Matrix Games and
Minimizing the Maximum of Smooth Functions [44.655316553524855]
我々は,$d$次元ユークリッド領域あるいは単純領域上で$max_iin[n] f_i(x) を最小化するアルゴリズムを設計する。
それぞれの$f_i$が1ドルLipschitzと1ドルSmoothのとき、我々の手法は$epsilon-approximateの解を計算する。
論文 参考訳(メタデータ) (2023-11-17T22:07:18Z) - Adaptive approximation of monotone functions [0.0]
GreedyBox が任意の関数 $f$ に対して,対数因子まで,最適なサンプル複雑性を実現することを証明した。
おそらく予想通り、GreedyBoxの$Lp(mu)$エラーは、アルゴリズムによって予測されるよりもはるかに高速な$C2$関数で減少する。
論文 参考訳(メタデータ) (2023-09-14T08:56:31Z) - An Optimal Algorithm for Strongly Convex Min-min Optimization [79.11017157526815]
既存の最適な一階法には$mathcalO(sqrtmaxkappa_x,kappa_y log 1/epsilon)$nabla_x f(x,y)$と$nabla_y f(x,y)$の両方の計算が必要である。
我々は$mathcalO(sqrtkappa_x log 1/epsilon)$nabla_x f(x,
論文 参考訳(メタデータ) (2022-12-29T19:26:12Z) - Private Stochastic Convex Optimization: Optimal Rates in $\ell_1$
Geometry [69.24618367447101]
対数要因まで $(varepsilon,delta)$-differently private の最適過剰人口損失は $sqrtlog(d)/n + sqrtd/varepsilon n.$ です。
損失関数がさらなる滑らかさの仮定を満たすとき、余剰損失は$sqrtlog(d)/n + (log(d)/varepsilon n)2/3で上界(対数因子まで)であることが示される。
論文 参考訳(メタデータ) (2021-03-02T06:53:44Z) - Optimal Regret Algorithm for Pseudo-1d Bandit Convex Optimization [51.23789922123412]
我々は,バンディットフィードバックを用いてオンライン学習を学習する。
learnerは、コスト/リワード関数が"pseudo-1d"構造を許可するゼロ次オラクルのみにアクセスできる。
我々は、$T$がラウンドの数である任意のアルゴリズムの後悔のために$min(sqrtdT、T3/4)$の下限を示しています。
ランダム化オンライングラデーション下降とカーネル化指数重み法を組み合わせた新しいアルゴリズムsbcalgを提案し,疑似-1d構造を効果的に活用する。
論文 参考訳(メタデータ) (2021-02-15T08:16:51Z) - Streaming Complexity of SVMs [110.63976030971106]
本稿では,ストリーミングモデルにおけるバイアス正規化SVM問題を解く際の空間複雑性について検討する。
両方の問題に対して、$frac1lambdaepsilon$の次元に対して、$frac1lambdaepsilon$よりも空間的に小さいストリーミングアルゴリズムを得ることができることを示す。
論文 参考訳(メタデータ) (2020-07-07T17:10:00Z) - Optimal Mutation Rates for the $(1+\lambda)$ EA on OneMax [1.0965065178451106]
我々は、最適な突然変異率の分析を、OneMax問題の2つの変種に拡張する。
すべての集団サイズを2i mid 0 le i le 18$で計算します。
我々の結果は、一般的な進化的アプローチを測ることのできる低い境界を提供するばかりではない。
論文 参考訳(メタデータ) (2020-06-20T01:23:14Z) - On the Complexity of Minimizing Convex Finite Sums Without Using the
Indices of the Individual Functions [62.01594253618911]
有限和の有限ノイズ構造を利用して、大域オラクルモデルの下での一致する$O(n2)$-upper境界を導出する。
同様のアプローチを踏襲したSVRGの新規な適応法を提案し、これはオラクルと互換性があり、$tildeO(n2+nsqrtL/mu)log (1/epsilon)$と$O(nsqrtL/epsilon)$, for $mu>0$と$mu=0$の複雑さ境界を実現する。
論文 参考訳(メタデータ) (2020-02-09T03:39:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。