論文の概要: Improved Dimension Dependence for Bandit Convex Optimization with Gradient Variations
- arxiv url: http://arxiv.org/abs/2602.04761v1
- Date: Wed, 04 Feb 2026 16:58:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.645659
- Title: Improved Dimension Dependence for Bandit Convex Optimization with Gradient Variations
- Title(参考訳): 勾配変動を考慮した帯域凸最適化における次元依存性の改善
- Authors: Hang Yu, Yu-Hu Yan, Peng Zhao,
- Abstract要約: 本研究では,帯域幅による勾配変動の基本量である非連続勾配変動の精密な解析法を提案する。
超矩形領域上の一点帯域線形最適化のための1次勾配変分を達成し,本手法の汎用性を実証する。
- 参考スコア(独自算出の注目度): 25.00309092567477
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gradient-variation online learning has drawn increasing attention due to its deep connections to game theory, optimization, etc. It has been studied extensively in the full-information setting, but is underexplored with bandit feedback. In this work, we focus on gradient variation in Bandit Convex Optimization (BCO) with two-point feedback. By proposing a refined analysis on the non-consecutive gradient variation, a fundamental quantity in gradient variation with bandits, we improve the dimension dependence for both convex and strongly convex functions compared with the best known results (Chiang et al., 2013). Our improved analysis for the non-consecutive gradient variation also implies other favorable problem-dependent guarantees, such as gradient-variance and small-loss regrets. Beyond the two-point setup, we demonstrate the versatility of our technique by achieving the first gradient-variation bound for one-point bandit linear optimization over hyper-rectangular domains. Finally, we validate the effectiveness of our results in more challenging tasks such as dynamic/universal regret minimization and bandit games, establishing the first gradient-variation dynamic and universal regret bounds for two-point BCO and fast convergence rates in bandit games.
- Abstract(参考訳): ゲーム理論や最適化などとの深いつながりから,オンライン学習のグラディエント偏差が注目されている。
フルインフォメーション・セッティングにおいて広範囲に研究されてきたが、バンドイットのフィードバックは過小評価されている。
本研究では,Bandit Convex Optimization(BCO)における2点フィードバックによる勾配変動に着目した。
包帯による勾配変動の基本的な量である非連続勾配変動に関する洗練された解析を提案し、最もよく知られた結果と比較して凸関数と強凸関数の次元依存性を改善する(Chiang et al , 2013)。
また,非連続的勾配変動の解析の改善は,勾配分散や小さめの後悔など,他の問題依存的な保証をも意味している。
2点設定の他に、超矩形領域上での1点帯域幅線形最適化のための第1勾配変分を達成して、我々の手法の汎用性を実証する。
最後に,この結果の有効性を,ダイナミック/ユニバーサル後悔最小化やバンディットゲームといったより困難なタスクで検証し,二点BCOに対する第1次勾配偏差動的・普遍的後悔境界と,バンディットゲームにおける高速収束率を確立する。
関連論文リスト
- Closed-Form Last Layer Optimization [72.49151473937319]
正方形損失の下では、線形最終層重みに対する最適解は閉形式で知られている。
これは、バックボーン上の勾配降下ステップと最終層上のクローズドフォーム更新の交互に行われることを示す。
論文 参考訳(メタデータ) (2025-10-06T09:14:39Z) - Domain Generalization via Pareto Optimal Gradient Matching [15.609331960945292]
そこでは,各領域にまたがる一貫した勾配方向を予測する領域一般化問題に対処する。
まず、勾配実験距離または勾配内積(GIP)の最小化は、ドメイン間の勾配変動をもたらす。
第二に、勾配学習の関節損失関数への直接適用は、二階微分近似による高いオーバーヘッドを生じさせる。
正規化として勾配マッチングを追加する既存の手法とは対照的に、グラデーショントラジェクトリを収集データとして活用し、メタラーナーで独立した訓練を施す。メタ更新では、学習した勾配を制限しながらGIPを最大化する。
論文 参考訳(メタデータ) (2025-07-16T22:41:49Z) - Gradient-Variation Online Learning under Generalized Smoothness [56.38427425920781]
勾配変分オンライン学習は、オンライン関数の勾配の変化とともにスケールする後悔の保証を達成することを目的としている。
ニューラルネットワーク最適化における最近の取り組みは、一般化された滑らかさ条件を示唆し、滑らかさは勾配ノルムと相関する。
ゲームにおける高速収束と拡張逆最適化への応用について述べる。
論文 参考訳(メタデータ) (2024-08-17T02:22:08Z) - Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Directional Smoothness and Gradient Methods: Convergence and Adaptivity [16.779513676120096]
我々は、最適化の経路に沿った目的の条件付けに依存する勾配降下に対する新しい準最適境界を開発する。
我々の証明の鍵となるのは方向の滑らかさであり、これは、目的の上のバウンドを開発するために使用する勾配変動の尺度である。
我々は,方向の滑らかさの知識を使わずとも,ポリアクのステップサイズと正規化GDが高速で経路依存の速度を得ることを示した。
論文 参考訳(メタデータ) (2024-03-06T22:24:05Z) - Nesterov Meets Optimism: Rate-Optimal Separable Minimax Optimization [108.35402316802765]
本稿では,新しい一階最適化アルゴリズムであるAcceleratedGradient-OptimisticGradient (AG-OG) Ascentを提案する。
我々はAG-OGが様々な設定に対して最適収束率(定数まで)を達成することを示す。
アルゴリズムを拡張して設定を拡張し、bi-SC-SCとbi-C-SCの両方で最適な収束率を達成する。
論文 参考訳(メタデータ) (2022-10-31T17:59:29Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。