論文の概要: Local Gradient Regulation Stabilizes Federated Learning under Client Heterogeneity
- arxiv url: http://arxiv.org/abs/2601.03584v1
- Date: Wed, 07 Jan 2026 04:58:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 02:15:23.272096
- Title: Local Gradient Regulation Stabilizes Federated Learning under Client Heterogeneity
- Title(参考訳): クライアントの不均一性下でのフェデレーション学習を安定化する局所的勾配制御
- Authors: Ping Luo, Jiahuan Wang, Ziqing Wen, Tao Sun, Dongsheng Li,
- Abstract要約: フェデレートラーニング(FL)は、生データを共有せずに、分散クライアント間で協調的なモデルトレーニングを可能にする。
クライアントは、クライアントサイドの最適化中に局所的な勾配のダイナミクスを歪ませることでFLを不安定にする。
我々は、追加の通信オーバーヘッドを発生させることなく、局所的なグラデーションコントリビューションを規制する一般的なクライアント側視点を開発する。
- 参考スコア(独自算出の注目度): 41.890949680958805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables collaborative model training across distributed clients without sharing raw data, yet its stability is fundamentally challenged by statistical heterogeneity in realistic deployments. Here, we show that client heterogeneity destabilizes FL primarily by distorting local gradient dynamics during client-side optimization, causing systematic drift that accumulates across communication rounds and impedes global convergence. This observation highlights local gradients as a key regulatory lever for stabilizing heterogeneous FL systems. Building on this insight, we develop a general client-side perspective that regulates local gradient contributions without incurring additional communication overhead. Inspired by swarm intelligence, we instantiate this perspective through Exploratory--Convergent Gradient Re-aggregation (ECGR), which balances well-aligned and misaligned gradient components to preserve informative updates while suppressing destabilizing effects. Theoretical analysis and extensive experiments, including evaluations on the LC25000 medical imaging dataset, demonstrate that regulating local gradient dynamics consistently stabilizes federated learning across state-of-the-art methods under heterogeneous data distributions.
- Abstract(参考訳): フェデレートラーニング(FL)は、生データを共有せずに、分散クライアント間で協調的なモデルトレーニングを可能にする。
ここでは、クライアントの不均一性は、主にクライアント側最適化中に局所勾配ダイナミクスを歪め、通信ラウンド全体にわたって蓄積する系統的なドリフトを引き起こし、グローバル収束を妨げることによって、FLを不安定化することを示す。
この観測は、不均一FLシステムの安定化のための重要な規制レバーとして局所勾配を強調している。
この知見に基づいて、通信オーバーヘッドを増大させることなく、局所的な勾配貢献を規制する一般的なクライアント側視点を開発する。
スワーミングインテリジェンスにインスパイアされた我々は、この視点をExploratory-Convergent Gradient Re-aggregation (ECGR) を通じてインスタンス化する。
LC25000の医用画像データセットの評価を含む理論解析と広範な実験により、局所勾配ダイナミクスの制御は、異種データ分布の下での最先端の手法によるフェデレーション学習を一貫して安定化させることを示した。
関連論文リスト
- Gradient Inversion in Federated Reinforcement Learning [0.0]
フェデレート強化学習(FRL)は、勾配共有を通じてローカルデータのプライバシを保護しながら、最適なポリシの分散学習を可能にする。
正規化グラディエント・インバージョン・アタック(RGIA)と呼ばれる新たな攻撃手法を提案する。
RGIAは、状態、報酬、遷移ダイナミクスの事前知識に基づく正規化を最適化プロセス中に実施し、再構成されたデータが真の遷移分布に近づき続けることを保証する。
制御タスクと自律運転タスクに関する大規模な実験は、RGIAが効率的に再構成されたデータ遷移分布を制約し、ローカルなプライベートデータの再構築に成功したことを示す。
論文 参考訳(メタデータ) (2025-11-29T03:54:42Z) - FedGPS: Statistical Rectification Against Data Heterogeneity in Federated Learning [103.45987800174724]
フェデレートラーニング(FL)は、データ不均一(data heterogeneity)として知られる重要な課題に直面し、モデルの性能と収束を損なう。
統計分布と勾配情報をシームレスに統合する新しいフレームワークである textbfFedGPS を提案する。
論文 参考訳(メタデータ) (2025-10-23T06:10:11Z) - CO-PFL: Contribution-Oriented Personalized Federated Learning for Heterogeneous Networks [51.43780477302533]
コントリビューション指向型PFL(CO-PFL)は,グローバルアグリゲーションに対する各クライアントのコントリビューションを動的に推定するアルゴリズムである。
CO-PFLは、パーソナライズ精度、堅牢性、スケーラビリティ、収束安定性において、最先端の手法を一貫して超越している。
論文 参考訳(メタデータ) (2025-10-23T05:10:06Z) - GC-Fed: Gradient Centralized Federated Learning with Partial Client Participation [6.769127514113163]
グラディエントラーニング(FL)は、プライバシ保護のためのマルチソース情報融合(MSIF)を可能にする
既存のドリフト緩和戦略の多くは参照ベースの技術に依存している。
GC-Fedは、ハイパープレーンを歴史的に独立した基準点として使用し、局所的なトレーニングをガイドし、サイクル間のアライメントを強化する。
論文 参考訳(メタデータ) (2025-03-17T13:54:27Z) - Federated Learning with Sample-level Client Drift Mitigation [15.248811557566128]
Federated Learningは、クライアント間のデータの不均一性によって、パフォーマンスが大幅に低下する。
本稿では,まず不均一性問題をサンプルレベルで緩和するFedBSSを提案する。
また,特徴分布とノイズラベルデータセット設定の効果的な結果を得た。
論文 参考訳(メタデータ) (2025-01-20T09:44:07Z) - FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - FedAgg: Adaptive Federated Learning with Aggregated Gradients [1.5653612447564105]
我々はFedAggと呼ばれる適応型FEDerated Learningアルゴリズムを提案し、局所モデルパラメータと平均モデルパラメータのばらつきを緩和し、高速モデル収束率を得る。
IIDおよび非IIDデータセット下でのモデル性能の向上と収束速度の促進を目的として,本手法が既存のFL戦略よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-28T08:07:28Z) - Disentangled Federated Learning for Tackling Attributes Skew via
Invariant Aggregation and Diversity Transferring [104.19414150171472]
属性は、クライアント間の一貫した最適化方向から、現在の連邦学習(FL)フレームワークを歪めます。
本稿では,ドメイン固有属性とクロス不変属性を2つの補足枝に分離するために,非絡み付きフェデレーション学習(DFL)を提案する。
実験により、DFLはSOTA FL法と比較して高い性能、より良い解釈可能性、より高速な収束率でFLを促進することが確認された。
論文 参考訳(メタデータ) (2022-06-14T13:12:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。