論文の概要: Achieving Linear Speedup for Composite Federated Learning
- arxiv url: http://arxiv.org/abs/2602.03357v1
- Date: Tue, 03 Feb 2026 10:29:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.391432
- Title: Achieving Linear Speedup for Composite Federated Learning
- Title(参考訳): 複合フェデレーション学習のための線形高速化の実現
- Authors: Kun Huang, Shi Pu,
- Abstract要約: FedNMapは、複合学習のためのマップベースの方法である。
FedNMapにはスムーズな更新スキームが組み込まれている。
- 参考スコア(独自算出の注目度): 8.819299198859099
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes FedNMap, a normal map-based method for composite federated learning, where the objective consists of a smooth loss and a possibly nonsmooth regularizer. FedNMap leverages a normal map-based update scheme to handle the nonsmooth term and incorporates a local correction strategy to mitigate the impact of data heterogeneity across clients. Under standard assumptions, including smooth local losses, weak convexity of the regularizer, and bounded stochastic gradient variance, FedNMap achieves linear speedup with respect to both the number of clients $n$ and the number of local updates $Q$ for nonconvex losses, both with and without the Polyak-Łojasiewicz (PL) condition. To our knowledge, this is the first result establishing linear speedup for nonconvex composite federated learning.
- Abstract(参考訳): 本稿では,FedNMapを提案する。FedNMapは複合的フェデレーション学習のための正規地図ベースの手法で,目的はスムーズな損失と非スムーズな正規化器から構成される。
FedNMapは、通常のマップベースの更新スキームを利用して、非滑らかな項を処理し、クライアント間のデータ不均一性の影響を軽減するために、局所的な修正戦略を取り入れている。
滑らかな局所損失、正則化器の弱凸性、および有界確率勾配分散を含む標準的な仮定の下で、FedNMapは、Polyak-Sojasiewicz (PL) 条件とともに、クライアント数$n$とローカル更新数$Q$の両方に関して線形スピードアップを達成する。
我々の知る限り、これは非凸複合フェデレーション学習の線形高速化を確立する最初の結果である。
関連論文リスト
- FRAM: Frobenius-Regularized Assignment Matching with Mixed-Precision Computing [6.987672546471471]
二次割当て問題(QAP)は、2つのグラフ間のノード対応を確立することを目的としている。
我々は,理論上基礎を成す混合精度アーキテクチャを開発し,精度の高い加速を実現する。
FRAMはCPU-FP64に比べて最大370倍のスピードアップを実現しており、解の精度は無視できない。
論文 参考訳(メタデータ) (2025-07-26T07:35:09Z) - Decentralized Nonconvex Composite Federated Learning with Gradient Tracking and Momentum [78.27945336558987]
分散サーバ(DFL)はクライアント・クライアント・アーキテクチャへの依存をなくす。
非滑らかな正規化はしばしば機械学習タスクに組み込まれる。
本稿では,これらの問題を解決する新しいDNCFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T08:32:25Z) - Aggregation on Learnable Manifolds for Asynchronous Federated Optimization [3.8208848658169763]
曲線学習としてアグリゲーションを取り入れた幾何学的枠組みを導入する。
そこで我々は,線形アグリゲーションを低次曲率成分に置き換えたAsyncBezierを提案する。
これらの利得は、他の方法がより高いローカルな計算予算に割り当てられた場合でも維持されることを示す。
論文 参考訳(メタデータ) (2025-03-18T16:36:59Z) - Convex Relaxations of ReLU Neural Networks Approximate Global Optima in Polynomial Time [45.72323731094864]
本稿では,2層ReLULUネットワーク間における重み減衰と凸緩和の最適性ギャップについて検討する。
私たちの研究は、なぜローカルメソッドがうまく機能するのかを理解することに新たな光を当てています。
論文 参考訳(メタデータ) (2024-02-06T01:29:35Z) - FedSpeed: Larger Local Interval, Less Communication Round, and Higher
Generalization Accuracy [84.45004766136663]
フェデレートラーニング(Federated Learning)は、分散機械学習フレームワークである。
これは、局所的不整合最適と局所的過度な適合による頑丈なクライアントドリフトによってもたらされる非消滅バイアスに悩まされる。
本稿では,これらの問題による負の影響を軽減するために,新しい実用的手法であるFedSpeedを提案する。
論文 参考訳(メタデータ) (2023-02-21T03:55:29Z) - Coding for Straggler Mitigation in Federated Learning [86.98177890676077]
提案手法は,プライバシと勾配コードを保存するために1回パディングを組み合わせることで,ストラグラーに対する抵抗性を向上する。
提案手法は,MNISTデータセットとFashion-MNISTデータセットのトレーニングスピードアップ係数が6.6ドルと9.2ドルであり,それぞれ95%と85%であることを示す。
論文 参考訳(メタデータ) (2021-09-30T15:53:35Z) - Achieving Linear Convergence in Federated Learning under Objective and
Systems Heterogeneity [24.95640915217946]
FedLinは、過去のグラデーションを活用し、クライアント固有の学習率を採用する、シンプルで新しいアルゴリズムです。
我々は,滑らかな凸,凸,非線形損失関数に対して集中収束率(アップ定数)をマッチングできるアプローチはフェドリンのみであることを示した。
論文 参考訳(メタデータ) (2021-02-14T02:47:35Z) - Faster Non-Convex Federated Learning via Global and Local Momentum [57.52663209739171]
textttFedGLOMOは最初の(一階)FLtexttFedGLOMOアルゴリズムです。
クライアントとサーバ間の通信においても,我々のアルゴリズムは確実に最適である。
論文 参考訳(メタデータ) (2020-12-07T21:05:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。