論文の概要: Nearly Optimal Robust Method for Convex Compositional Problems with
Heavy-Tailed Noise
- arxiv url: http://arxiv.org/abs/2006.10095v1
- Date: Wed, 17 Jun 2020 18:36:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 19:52:57.050887
- Title: Nearly Optimal Robust Method for Convex Compositional Problems with
Heavy-Tailed Noise
- Title(参考訳): 重み付き雑音を伴う凸構成問題に対する近似ロバスト近似法
- Authors: Yan Yan and Xin Man and Tianbao Yang
- Abstract要約: 我々は、$f(E_xi g(cdot; xi)) + r(cdot)$という形の凸合成問題を解くための頑健なアルゴリズムを提案する。
我々の知る限りでは、これは重尾の仮定の下で構成問題に対するほぼ最適な準ガウス的自信境界を確立する最初の研究である。
- 参考スコア(独自算出の注目度): 46.94819585976063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose robust stochastic algorithms for solving convex
compositional problems of the form $f(\E_\xi g(\cdot; \xi)) + r(\cdot)$ by
establishing {\bf sub-Gaussian confidence bounds} under weak assumptions about
the tails of noise distribution, i.e., {\bf heavy-tailed noise} with bounded
second-order moments. One can achieve this goal by using an existing boosting
strategy that boosts a low probability convergence result into a high
probability result. However, piecing together existing results for solving
compositional problems suffers from several drawbacks: (i) the boosting
technique requires strong convexity of the objective; (ii) it requires a
separate algorithm to handle non-smooth $r$; (iii) it also suffers from an
additional polylogarithmic factor of the condition number. To address these
issues, we directly develop a single-trial stochastic algorithm for minimizing
optimal strongly convex compositional objectives, which has a nearly optimal
high probability convergence result matching the lower bound of stochastic
strongly convex optimization up to a logarithmic factor. To the best of our
knowledge, this is the first work that establishes nearly optimal sub-Gaussian
confidence bounds for compositional problems under heavy-tailed assumptions.
- Abstract(参考訳): 本稿では,雑音分布のテール,すなわち有界な2次モーメントに関する弱仮定の下で, {\bf sub-gaussian confidence bounds} を成立させることにより,$f(\e_\xi g(\cdot; \xi)) + r(\cdot)$ という形式の凸合成問題を解くためのロバストな確率的アルゴリズムを提案する。
低確率収束結果を高い確率結果に高める既存のブースティング戦略を使用することで、この目標を達成することができる。
しかし、構成問題の解決に既存の結果をまとめるには、いくつかの欠点がある。
i) ブースティング技術は,目的の強い凸性を必要とする。
(ii)非スムース$r$の処理には別のアルゴリズムが必要である。
(iii) 条件数に付加的な多義性因子に悩まされる。
これらの問題に対処するために,我々は,確率的強凸最適化の下限に対数係数まで一致するほぼ最適な高確率収束結果を持つ,最適強凸合成目標を最小化する単一房型確率的アルゴリズムを直接開発する。
我々の知る限りでは、これは重尾の仮定の下で構成問題に対するほぼ最適な準ガウス的自信境界を確立する最初の研究である。
関連論文リスト
- Stochastic Zeroth-Order Optimization under Strongly Convexity and Lipschitz Hessian: Minimax Sample Complexity [59.75300530380427]
本稿では,アルゴリズムが検索対象関数の雑音評価にのみアクセス可能な2次スムーズかつ強い凸関数を最適化する問題を考察する。
本研究は, ミニマックス単純後悔率について, 一致した上界と下界を発達させることにより, 初めて厳密な評価を行ったものである。
論文 参考訳(メタデータ) (2024-06-28T02:56:22Z) - Breaking the Heavy-Tailed Noise Barrier in Stochastic Optimization Problems [56.86067111855056]
構造密度の重み付き雑音によるクリップ最適化問題を考察する。
勾配が有限の順序モーメントを持つとき、$mathcalO(K-(alpha - 1)/alpha)$よりも高速な収束率が得られることを示す。
得られた推定値が無視可能なバイアスと制御可能な分散を持つことを示す。
論文 参考訳(メタデータ) (2023-11-07T17:39:17Z) - High-Probability Convergence for Composite and Distributed Stochastic Minimization and Variational Inequalities with Heavy-Tailed Noise [96.80184504268593]
グラデーション、クリッピングは、優れた高確率保証を導き出すアルゴリズムの鍵となる要素の1つである。
クリッピングは、合成および分散最適化の一般的な方法の収束を損なう可能性がある。
論文 参考訳(メタデータ) (2023-10-03T07:49:17Z) - Stochastic Nested Compositional Bi-level Optimization for Robust Feature
Learning [11.236838268731804]
ネストされた二段階最適化問題を解くアルゴリズムを開発し,解析する。
提案アルゴリズムは,行列複雑性やミニバッチに依存しない。
論文 参考訳(メタデータ) (2023-07-11T15:52:04Z) - High-Probability Bounds for Stochastic Optimization and Variational
Inequalities: the Case of Unbounded Variance [59.211456992422136]
制約の少ない仮定の下で高確率収束結果のアルゴリズムを提案する。
これらの結果は、標準機能クラスに適合しない問題を最適化するために検討された手法の使用を正当化する。
論文 参考訳(メタデータ) (2023-02-02T10:37:23Z) - Faster Accelerated First-order Methods for Convex Optimization with Strongly Convex Function Constraints [3.1044138971639734]
強い凸関数制約を受ける凸関数を最小化するために,高速化された原始双対アルゴリズムを導入する。
特にGoogleのパーソナライズされたPageRank問題では、スパシティ誘導最適化におけるメソッドのパフォーマンスが優れています。
論文 参考訳(メタデータ) (2022-12-21T16:04:53Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - The Strength of Nesterov's Extrapolation in the Individual Convergence
of Nonsmooth Optimization [0.0]
ネステロフの外挿は、非滑らかな問題に対して勾配降下法の個人収束を最適にする強さを持つことを証明している。
提案手法は,設定の非滑らかな損失を伴って正規化学習タスクを解くためのアルゴリズムの拡張である。
本手法は,大規模な1-正規化ヒンジロス学習問題の解法として有効である。
論文 参考訳(メタデータ) (2020-06-08T03:35:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。