論文の概要: Stochastic variance reduced extragradient methods for solving hierarchical variational inequalities
- arxiv url: http://arxiv.org/abs/2602.13510v1
- Date: Fri, 13 Feb 2026 22:38:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.122547
- Title: Stochastic variance reduced extragradient methods for solving hierarchical variational inequalities
- Title(参考訳): 確率分散は階層的変動不等式を解くための漸進的手法を減らした
- Authors: Pavel Dvurechensky, Andrea Ebner, Johannes Carl Schnebel, Shimrit Shtern, Mathias Staudigl,
- Abstract要約: 我々は変動不等式(VIs)を解くレンズを通して広義に最適化することに関心がある。
問題定式化における主な課題は、各レベルにおける滑らかな作用素の2レベル階層構造と有限サム表現である。
この設定のために、ユークリッドとブレグマンのセットアップにおける階層 VI の解に近づく分散還元アルゴリズムの収束率と複雑性ステートメントを初めて証明する。
- 参考スコア(独自算出の注目度): 3.552206138597537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We are concerned with optimization in a broad sense through the lens of solving variational inequalities (VIs) -- a class of problems that are so general that they cover as particular cases minimization of functions, saddle-point (minimax) problems, Nash equilibrium problems, and many others. The key challenges in our problem formulation are the two-level hierarchical structure and finite-sum representation of the smooth operators in each level. For this setting, we are the first to prove convergence rates and complexity statements for variance-reduced stochastic algorithms approaching the solution of hierarchical VIs in Euclidean and Bregman setups.
- Abstract(参考訳): 我々は、変動不等式 (VIs) を解くレンズを通して、広い意味での最適化を懸念している。これは、関数の最小化、サドルポイント(ミニマックス)問題、ナッシュ均衡問題など、非常に一般的な問題のクラスである。
問題定式化の鍵となる課題は、各レベルにおける滑らかな作用素の2レベル階層構造と有限サム表現である。
この設定のために、ユークリッドとブレグマンのセットアップにおける階層 VI の解に近づく分散還元確率アルゴリズムの収束率と複雑性ステートメントを初めて証明する。
関連論文リスト
- Error Feedback under $(L_0,L_1)$-Smoothness: Normalization and Momentum [56.37522020675243]
機械学習の幅広い問題にまたがる正規化誤差フィードバックアルゴリズムに対する収束の最初の証明を提供する。
提案手法では,許容可能なステップサイズが大きくなったため,新しい正規化エラーフィードバックアルゴリズムは,各種タスクにおける非正規化エラーよりも優れていた。
論文 参考訳(メタデータ) (2024-10-22T10:19:27Z) - Primal Methods for Variational Inequality Problems with Functional Constraints [25.261426717550293]
本稿では,関数的制約付き変分不等式問題に対処する手法として,制約付き勾配法(Constrained Gradient Method, CGM)を提案する。
提案アルゴリズムは, 単調・強単調両方の演算子問合せにおいて, プロジェクションに基づく手法の複雑さに適合する。
論文 参考訳(メタデータ) (2024-03-19T16:03:03Z) - First Order Methods with Markovian Noise: from Acceleration to Variational Inequalities [91.46841922915418]
本稿では,一階変分法の理論解析のための統一的アプローチを提案する。
提案手法は非線形勾配問題とモンテカルロの強い問題の両方をカバーする。
凸法最適化問題の場合、オラクルに強く一致するような境界を与える。
論文 参考訳(メタデータ) (2023-05-25T11:11:31Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - First-Order Algorithms for Nonlinear Generalized Nash Equilibrium
Problems [88.58409977434269]
非線形一般化ナッシュ均衡問題(NGNEP)における平衡計算の問題を考える。
我々の貢献は、2次ペナルティ法と拡張ラグランジアン法に基づく2つの単純な一階アルゴリズムフレームワークを提供することである。
これらのアルゴリズムに対する漸近的理論的保証を提供する。
論文 参考訳(メタデータ) (2022-04-07T00:11:05Z) - Stochastic Variance Reduction for Variational Inequality Methods [19.061953585686986]
凸凹サドル点問題, 単調変位不等式, 単調包含問題に対する分散化アルゴリズムを提案する。
私たちのフレームワークは、ユークリッドとブレグマンの両方で、エクストラグラデーション、フォワードバックワード、フォワードリフレクテッドバックワードメソッドに適用されます。
論文 参考訳(メタデータ) (2021-02-16T18:39:16Z) - Efficient Methods for Structured Nonconvex-Nonconcave Min-Max
Optimization [98.0595480384208]
定常点に収束する一般化外空間を提案する。
このアルゴリズムは一般の$p$ノルド空間だけでなく、一般の$p$次元ベクトル空間にも適用される。
論文 参考訳(メタデータ) (2020-10-31T21:35:42Z) - Variance-Reduced Splitting Schemes for Monotone Stochastic Generalized
Equations [0.0]
演算子を期待値とする単調な包摂問題を考える。
分割スキームの直接適用は、各ステップにおける期待値マップによる問題解決の必要性により複雑である。
本稿では,不確実性に対処する手法を提案する。
論文 参考訳(メタデータ) (2020-08-26T02:33:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。