論文の概要: Adaptive Bandit Convex Optimization with Heterogeneous Curvature
- arxiv url: http://arxiv.org/abs/2202.06150v1
- Date: Sat, 12 Feb 2022 21:55:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 14:47:09.460598
- Title: Adaptive Bandit Convex Optimization with Heterogeneous Curvature
- Title(参考訳): 不均一曲率を用いた適応帯域凸最適化
- Authors: Haipeng Luo, Mengxiao Zhang, Peng Zhao
- Abstract要約: 本研究では,学習者が決定を下すと,各関数が独自の曲率を持つ異種環境について検討する。
我々は, 高速で曲率に適応できる効率的なアルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 40.368893108265056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of adversarial bandit convex optimization, that is,
online learning over a sequence of arbitrary convex loss functions with only
one function evaluation for each of them. While all previous works assume known
and homogeneous curvature on these loss functions, we study a heterogeneous
setting where each function has its own curvature that is only revealed after
the learner makes a decision. We develop an efficient algorithm that is able to
adapt to the curvature on the fly. Specifically, our algorithm not only
recovers or \emph{even improves} existing results for several homogeneous
settings, but also leads to surprising results for some heterogeneous settings
-- for example, while Hazan and Levy (2014) showed that
$\widetilde{O}(d^{3/2}\sqrt{T})$ regret is achievable for a sequence of $T$
smooth and strongly convex $d$-dimensional functions, our algorithm reveals
that the same is achievable even if $T^{3/4}$ of them are not strongly convex,
and sometimes even if a constant fraction of them are not strongly convex. Our
approach is inspired by the framework of Bartlett et al. (2007) who studied a
similar heterogeneous setting but with stronger gradient feedback. Extending
their framework to the bandit feedback setting requires novel ideas such as
lifting the feasible domain and using a logarithmically homogeneous
self-concordant barrier regularizer.
- Abstract(参考訳): 本稿では,各関数に対してのみ関数評価を施した任意の凸損失関数列に対するオンライン学習という,逆帯域凸最適化の問題について考察する。
従来のすべての研究は、これらの損失関数について既知の等質な曲率を仮定するが、各関数が独自の曲率を持つ不均一な設定を学習者が決定した後のみ明らかにする。
我々は,ハエの曲率に適応できる効率的なアルゴリズムを開発した。
Specifically, our algorithm not only recovers or \emph{even improves} existing results for several homogeneous settings, but also leads to surprising results for some heterogeneous settings -- for example, while Hazan and Levy (2014) showed that $\widetilde{O}(d^{3/2}\sqrt{T})$ regret is achievable for a sequence of $T$ smooth and strongly convex $d$-dimensional functions, our algorithm reveals that the same is achievable even if $T^{3/4}$ of them are not strongly convex, and sometimes even if a constant fraction of them are not strongly convex.
我々のアプローチは、同様の異質な設定をしたがより強い勾配フィードバックで研究したBartlett et al. (2007) の枠組みに着想を得たものである。
バンドイットフィードバック設定にフレームワークを拡張するには、実現可能なドメインを持ち上げたり、対数的に均質な自己調和障壁正規化器を使用するといった新しいアイデアが必要である。
関連論文リスト
- Stochastic Zeroth-Order Optimization under Strongly Convexity and Lipschitz Hessian: Minimax Sample Complexity [59.75300530380427]
本稿では,アルゴリズムが検索対象関数の雑音評価にのみアクセス可能な2次スムーズかつ強い凸関数を最適化する問題を考察する。
本研究は, ミニマックス単純後悔率について, 一致した上界と下界を発達させることにより, 初めて厳密な評価を行ったものである。
論文 参考訳(メタデータ) (2024-06-28T02:56:22Z) - Universal Online Learning with Gradient Variations: A Multi-layer Online Ensemble Approach [57.92727189589498]
本稿では,2段階の適応性を持つオンライン凸最適化手法を提案する。
我々は$mathcalO(log V_T)$, $mathcalO(d log V_T)$, $hatmathcalO(sqrtV_T)$ regret bounds for strong convex, exp-concave and convex loss function。
論文 参考訳(メタデータ) (2023-07-17T09:55:35Z) - Gradient-free optimization of highly smooth functions: improved analysis
and a new algorithm [87.22224691317766]
この研究は、目的関数が極めて滑らかであるという仮定の下で、ゼロ次ノイズオラクル情報による問題を研究する。
ゼロオーダー射影勾配勾配アルゴリズムを2種類検討する。
論文 参考訳(メタデータ) (2023-06-03T17:05:13Z) - Stochastic Nonsmooth Convex Optimization with Heavy-Tailed Noises:
High-Probability Bound, In-Expectation Rate and Initial Distance Adaptation [22.758674468435302]
重尾雑音系では、勾配と真の速度の差は有限の$p-thモーメントを持つと仮定される。
本稿では,重み付き雑音を用いた非平滑凸最適化の包括的解析を行う。
論文 参考訳(メタデータ) (2023-03-22T03:05:28Z) - Randomized Coordinate Subgradient Method for Nonsmooth Composite
Optimization [11.017632675093628]
非滑らかな問題に対処するコーディネート型劣階法は、リプシッツ型仮定の性質のセットのため、比較的過小評価されている。
論文 参考訳(メタデータ) (2022-06-30T02:17:11Z) - Optimal Extragradient-Based Bilinearly-Coupled Saddle-Point Optimization [116.89941263390769]
滑らかな凸凹凸結合型サドル点問題, $min_mathbfxmax_mathbfyF(mathbfx) + H(mathbfx,mathbfy)$ を考える。
漸進的勾配指数(AG-EG)降下指数アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-06-17T06:10:20Z) - Mirror Descent Strikes Again: Optimal Stochastic Convex Optimization
under Infinite Noise Variance [17.199063087458907]
我々は一様凸ミラーマップのクラスを用いてミラーDescentアルゴリズムの収束率を定量化する。
このアルゴリズムは明確な勾配クリッピングや正規化を必要としない。
我々は,1次オラクルのみを用いた他のアルゴリズムでは改善率を達成できないことを示す情報理論の下界を補完する。
論文 参考訳(メタデータ) (2022-02-23T17:08:40Z) - Optimal Rates for Random Order Online Optimization [60.011653053877126]
敵が損失関数を選択できるカテットガルバー2020onlineについて検討するが、一様にランダムな順序で提示される。
2020onlineアルゴリズムが最適境界を達成し,安定性を著しく向上することを示す。
論文 参考訳(メタデータ) (2021-06-29T09:48:46Z) - Provably Convergent Working Set Algorithm for Non-Convex Regularized
Regression [0.0]
本稿では、収束保証付き非正則正規化器のためのワーキングセットアルゴリズムを提案する。
その結果,ブロックコーディネートや勾配ソルバの完全解法と比較して高い利得を示した。
論文 参考訳(メタデータ) (2020-06-24T07:40:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。