論文の概要: First-Order Softmax Weighted Switching Gradient Method for Distributed Stochastic Minimax Optimization with Stochastic Constraints
- arxiv url: http://arxiv.org/abs/2603.05774v1
- Date: Fri, 06 Mar 2026 00:14:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:44.779567
- Title: First-Order Softmax Weighted Switching Gradient Method for Distributed Stochastic Minimax Optimization with Stochastic Constraints
- Title(参考訳): 確率制約付き分散確率最小値最適化のための1次ソフトマックス重み付きスイッチング勾配法
- Authors: Zhankun Luo, Antesh Upadhyay, Sang Bin Moon, Abolfazl Hashemi,
- Abstract要約: フェデレート学習に適した1次ソフトマックス重み付きスイッチング勾配法を提案する。
完全なクライアント参加の下で、我々のアルゴリズムは標準的な $mathcalO(-4)$ Oracle complexity を達成する。
我々は、統一されたエラー分解を提供し、シャープな$mathcalO(logfrac1)$高確率収束保証を確立する。
- 参考スコア(独自算出の注目度): 9.141425189503794
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses the distributed stochastic minimax optimization problem subject to stochastic constraints. We propose a novel first-order Softmax-Weighted Switching Gradient method tailored for federated learning. Under full client participation, our algorithm achieves the standard $\mathcal{O}(ε^{-4})$ oracle complexity to satisfy a unified bound $ε$ for both the optimality gap and feasibility tolerance. We extend our theoretical analysis to the practical partial participation regime by quantifying client sampling noise through a stochastic superiority assumption. Furthermore, by relaxing standard boundedness assumptions on the objective functions, we establish a strictly tighter lower bound for the softmax hyperparameter. We provide a unified error decomposition and establish a sharp $\mathcal{O}(\log\frac{1}δ)$ high-probability convergence guarantee. Ultimately, our framework demonstrates that a single-loop primal-only switching mechanism provides a stable alternative for optimizing worst-case client performance, effectively bypassing the hyperparameter sensitivity and convergence oscillations often encountered in traditional primal-dual or penalty-based approaches. We verify the efficacy of our algorithm via experiment on the Neyman-Pearson (NP) classification and fair classification tasks.
- Abstract(参考訳): 本稿では,確率制約を考慮した分散確率最小最適化問題に対処する。
フェデレート学習に適した1次ソフトマックス重み付きスイッチング勾配法を提案する。
本アルゴリズムは, クライアントの完全参加の下で, 最適性ギャップと許容可能性の両面において, 統一有界な$ε$を満たすために, 標準的な$\mathcal{O}(ε^{-4})$ Oracle複雑性を実現する。
確率的優越性仮定を用いてクライアントサンプリングノイズを定量化することにより、理論的解析を実践的な部分的参加体制にまで拡張する。
さらに、対象関数の標準有界性仮定を緩和することにより、ソフトマックスハイパーパラメーターに対してより厳密な下界を確立する。
統一された誤差分解を提供し、鋭い$\mathcal{O}(\log\frac{1}δ)$高確率収束を保証する。
最終的に、我々のフレームワークは、単一ループのプリアルオンリースイッチング機構が、従来のプリアルダールやペナルティベースのアプローチでしばしば発生する過度パラメータ感度と収束振動を効果的に回避し、最悪のクライアント性能を最適化するための安定した代替手段を提供することを示した。
我々は、Neyman-Pearson (NP) 分類と公平な分類タスクの実験を通して、アルゴリズムの有効性を検証する。
関連論文リスト
- Bridging Constraints and Stochasticity: A Fully First-Order Method for Stochastic Bilevel Optimization with Linear Constraints [3.567855687957749]
この研究は、一階法のみを用いた線形制約付き双レベル最適化に対する最初の有限時間収束保証を提供する。
線形制約、雑音、有限時間解析を両レベル最適化において同時に扱うという前例のない課題に対処する。
論文 参考訳(メタデータ) (2025-11-13T00:59:20Z) - Stochastic Zeroth-Order Optimization under Strongly Convexity and Lipschitz Hessian: Minimax Sample Complexity [59.75300530380427]
本稿では,アルゴリズムが検索対象関数の雑音評価にのみアクセス可能な2次スムーズかつ強い凸関数を最適化する問題を考察する。
本研究は, ミニマックス単純後悔率について, 一致した上界と下界を発達させることにより, 初めて厳密な評価を行ったものである。
論文 参考訳(メタデータ) (2024-06-28T02:56:22Z) - Faster Algorithm and Sharper Analysis for Constrained Markov Decision
Process [56.55075925645864]
制約付き意思決定プロセス (CMDP) の問題点について検討し, エージェントは, 複数の制約を条件として, 期待される累積割引報酬を最大化することを目的とする。
新しいユーティリティ・デュアル凸法は、正規化ポリシー、双対正則化、ネステロフの勾配降下双対という3つの要素の新たな統合によって提案される。
これは、凸制約を受ける全ての複雑性最適化に対して、非凸CMDP問題が$mathcal O (1/epsilon)$の低い境界に達する最初の実演である。
論文 参考訳(メタデータ) (2021-10-20T02:57:21Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Unified Convergence Analysis for Adaptive Optimization with Moving Average Estimator [75.05106948314956]
1次モーメントに対する大きな運動量パラメータの増大は適応的スケーリングに十分であることを示す。
また,段階的に減少するステップサイズに応じて,段階的に運動量を増加させるための洞察を与える。
論文 参考訳(メタデータ) (2021-04-30T08:50:24Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。