論文の概要: FedGPS: Statistical Rectification Against Data Heterogeneity in Federated Learning
- arxiv url: http://arxiv.org/abs/2510.20250v1
- Date: Thu, 23 Oct 2025 06:10:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.44573
- Title: FedGPS: Statistical Rectification Against Data Heterogeneity in Federated Learning
- Title(参考訳): FedGPS:フェデレートラーニングにおけるデータ不均一性に対する統計的解釈
- Authors: Zhiqin Yang, Yonggang Zhang, Chenxin Li, Yiu-ming Cheung, Bo Han, Yixuan Yuan,
- Abstract要約: フェデレートラーニング(FL)は、データ不均一(data heterogeneity)として知られる重要な課題に直面し、モデルの性能と収束を損なう。
統計分布と勾配情報をシームレスに統合する新しいフレームワークである textbfFedGPS を提案する。
- 参考スコア(独自算出の注目度): 103.45987800174724
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) confronts a significant challenge known as data heterogeneity, which impairs model performance and convergence. Existing methods have made notable progress in addressing this issue. However, improving performance in certain heterogeneity scenarios remains an overlooked question: \textit{How robust are these methods to deploy under diverse heterogeneity scenarios?} To answer this, we conduct comprehensive evaluations across varied heterogeneity scenarios, showing that most existing methods exhibit limited robustness. Meanwhile, insights from these experiments highlight that sharing statistical information can mitigate heterogeneity by enabling clients to update with a global perspective. Motivated by this, we propose \textbf{FedGPS} (\textbf{Fed}erated \textbf{G}oal-\textbf{P}ath \textbf{S}ynergy), a novel framework that seamlessly integrates statistical distribution and gradient information from others. Specifically, FedGPS statically modifies each client's learning objective to implicitly model the global data distribution using surrogate information, while dynamically adjusting local update directions with gradient information from other clients at each round. Extensive experiments show that FedGPS outperforms state-of-the-art methods across diverse heterogeneity scenarios, validating its effectiveness and robustness. The code is available at: https://github.com/CUHK-AIM-Group/FedGPS.
- Abstract(参考訳): フェデレートラーニング(FL)は、データ不均一(data heterogeneity)として知られる重要な課題に直面し、モデルの性能と収束を損なう。
既存の手法はこの問題に対処する上で顕著な進歩を遂げた。
しかし、ある種の不均一性シナリオのパフォーマンスを改善することは、まだ見過ごされている疑問である。
これに対応するために、我々は様々な異種性シナリオを包括的に評価し、既存のほとんどの手法が限られた堅牢性を示すことを示す。
一方、これらの実験から得られた知見は、クライアントがグローバルな視点で更新できることによって、統計情報の共有が不均一性を緩和できることを示している。
これを動機として,統計分布と勾配情報をシームレスに統合する新しいフレームワークである \textbf{FedGPS} (\textbf{Fed}erated \textbf{G}oal-\textbf{P}ath \textbf{S}ynergy) を提案する。
具体的には、FedGPSは各クライアントの学習目標を静的に修正し、サロゲート情報を使用してグローバルなデータ分散を暗黙的にモデル化し、各ラウンドで他のクライアントからの勾配情報で局所的な更新方向を動的に調整する。
大規模な実験により、FedGPSは様々な異種性のシナリオにまたがって最先端の手法より優れており、その有効性と堅牢性を検証している。
コードは、https://github.com/CUHK-AIM-Group/FedGPSで入手できる。
関連論文リスト
- FedQuad: Federated Stochastic Quadruplet Learning to Mitigate Data Heterogeneity [2.298932494750101]
フェデレートラーニング(FL)は、分散データやプライバシ保護といった問題に効果的に取り組む分散モデルトレーニングを提供する。
クライアント間でのクラス内分散とクラス間分散を明示的に最適化する新しい方法であるtextitFedQuadを提案する。
提案手法は, 類似したペア間の距離を最小化しつつ, 負のペア間の距離を最大化し, 共有特徴空間内のクライアントデータを効果的に切り離す手法である。
論文 参考訳(メタデータ) (2025-09-04T11:11:10Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [55.0981921695672]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - FedFed: Feature Distillation against Data Heterogeneity in Federated
Learning [88.36513907827552]
フェデレートラーニング(FL)は通常、データ不均一性、すなわちクライアント間の分散シフトに直面している。
我々はtextbfFederated textbfFeature textbfdistillation (FedFedFed) という新しいアプローチを提案する。
FedFedは、データをパフォーマンスに敏感な機能(すなわち、モデルパフォーマンスに多大な貢献)とパフォーマンスを損なう機能(つまり、モデルパフォーマンスに限られた貢献)に分割する。
総合的な実験は、モデル性能の促進におけるFedFedの有効性を示す。
論文 参考訳(メタデータ) (2023-10-08T09:00:59Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Gradient Masked Averaging for Federated Learning [24.687254139644736]
フェデレートラーニングは、統一グローバルモデルの学習を協調するために、異種データを持つ多数のクライアントを可能にする。
標準FLアルゴリズムは、サーバのグローバルモデルを近似するために、モデルパラメータや勾配の更新を平均化する。
本稿では,クライアント更新の標準平均化の代替として,FLの勾配マスク平均化手法を提案する。
論文 参考訳(メタデータ) (2022-01-28T08:42:43Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。