論文の概要: DS FedProxGrad: Asymptotic Stationarity Without Noise Floor in Fair Federated Learning
- arxiv url: http://arxiv.org/abs/2512.08671v2
- Date: Wed, 10 Dec 2025 17:10:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.227808
- Title: DS FedProxGrad: Asymptotic Stationarity Without Noise Floor in Fair Federated Learning
- Title(参考訳): DS FedProxGrad: フェアフェデレーション学習におけるノイズフロアのない漸近的定常性
- Authors: Huzaifa Arif,
- Abstract要約: 我々は,不正確な局所解と明示的正則化をともなうFederated textttFedProxGrad型解析フレームワークの収束解析を改良した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work \cite{arifgroup} introduced Federated Proximal Gradient \textbf{(\texttt{FedProxGrad})} for solving non-convex composite optimization problems in group fair federated learning. However, the original analysis established convergence only to a \textit{noise-dominated neighborhood of stationarity}, with explicit dependence on a variance-induced noise floor. In this work, we provide an improved asymptotic convergence analysis for a generalized \texttt{FedProxGrad}-type analytical framework with inexact local proximal solutions and explicit fairness regularization. We call this extended analytical framework \textbf{DS \texttt{FedProxGrad}} (Decay Step Size \texttt{FedProxGrad}). Under a Robbins-Monro step-size schedule \cite{robbins1951stochastic} and a mild decay condition on local inexactness, we prove that $\liminf_{r\to\infty} \mathbb{E}[\|\nabla F(\mathbf{x}^r)\|^2] = 0$, i.e., the algorithm is asymptotically stationary and the convergence rate does not depend on a variance-induced noise floor.
- Abstract(参考訳): 最近の研究で、Federated Proximal Gradient \textbf{(\texttt{FedProxGrad})} を導入し、群フェアフェデレート学習における非凸複合最適化問題を解く。
しかし、元の分析は、分散誘導ノイズフロアに明示的な依存を伴って、‘textit{noise-dominated neighborhood of stationarity} にのみ収束することを確立した。
本研究では,局所的近似解と明示的公正正則化を備えた一般化された \texttt{FedProxGrad} 型解析フレームワークに対して,漸近収束解析を改良した。
この拡張分析フレームワークは、Decay Step Size \texttt{FedProxGrad}(Decay Step Size \texttt{FedProxGrad})と呼ばれます。
Robbins-Monro ステップサイズスケジュール \cite{robbins 1951stochastic} と局所的不コンパクト性に関する軽度の減衰条件の下では、$\liminf_{r\to\infty} \mathbb{E}[\|\nabla F(\mathbf{x}^r)\|^2] = 0$, すなわち、アルゴリズムは漸近的に定常であり、収束速度は分散誘起ノイズフロアに依存しないことを示す。
関連論文リスト
- A Finite-Time Analysis of TD Learning with Linear Function Approximation without Projections or Strong Convexity [11.513419525702924]
線形関数近似を用いた時間差分学習(TD)の有限時間収束特性について検討する。
単純な射影自由多様体は、マルコフノイズの存在下でさえ$widetildemathcalO(frac||theta)$の速度で収束することを示す。
論文 参考訳(メタデータ) (2025-06-01T15:39:00Z) - Breaking the Heavy-Tailed Noise Barrier in Stochastic Optimization Problems [56.86067111855056]
構造密度の重み付き雑音によるクリップ最適化問題を考察する。
勾配が有限の順序モーメントを持つとき、$mathcalO(K-(alpha - 1)/alpha)$よりも高速な収束率が得られることを示す。
得られた推定値が無視可能なバイアスと制御可能な分散を持つことを示す。
論文 参考訳(メタデータ) (2023-11-07T17:39:17Z) - Compressed and distributed least-squares regression: convergence rates with applications to Federated Learning [11.870656106069447]
機械学習の勾配アルゴリズムに対する圧縮の影響について検討する。
いくつかの非バイアス圧縮演算子間の収束率の差を強調した。
我々はその結果を連合学習の事例にまで拡張する。
論文 参考訳(メタデータ) (2023-08-02T18:02:00Z) - Convex and Non-convex Optimization Under Generalized Smoothness [69.69521650503431]
凸法と非最適化法の分析は、しばしばリプシッツ勾配を必要とし、この軌道による解析を制限する。
最近の研究は、非一様滑らか性条件を通した勾配設定を一般化している。
論文 参考訳(メタデータ) (2023-06-02T04:21:59Z) - Convergence of Adam Under Relaxed Assumptions [72.24779199744954]
我々は、アダムがより現実的な条件下で、$O(epsilon-4)$勾配複雑性で$epsilon$-定常点に収束することを示している。
また、Adamの分散還元版を$O(epsilon-3)$の加速勾配複雑性で提案する。
論文 参考訳(メタデータ) (2023-04-27T06:27:37Z) - Randomized Coordinate Subgradient Method for Nonsmooth Composite
Optimization [11.017632675093628]
非滑らかな問題に対処するコーディネート型劣階法は、リプシッツ型仮定の性質のセットのため、比較的過小評価されている。
論文 参考訳(メタデータ) (2022-06-30T02:17:11Z) - Optimal Extragradient-Based Bilinearly-Coupled Saddle-Point Optimization [116.89941263390769]
滑らかな凸凹凸結合型サドル点問題, $min_mathbfxmax_mathbfyF(mathbfx) + H(mathbfx,mathbfy)$ を考える。
漸進的勾配指数(AG-EG)降下指数アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-06-17T06:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。