論文の概要: Federated Balanced Learning
- arxiv url: http://arxiv.org/abs/2601.14042v1
- Date: Tue, 20 Jan 2026 15:00:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.369056
- Title: Federated Balanced Learning
- Title(参考訳): Federated Balanced Learning
- Authors: Jiaze Li, Haoran Xu, Wanyi Wu, Changwei Wang, Shuaiguang Li, Jianzhong Ju, Zhenbo Luo, Jian Luan, Youyang Qu, Longxiang Gao, Xudong Yang, Lumin Xing,
- Abstract要約: フェデレート・バランスド・ラーニング(Federated Balanced Learning)、すなわちFBLは、クライアント側のアンバランスなデータをサンプル・バランスを達成する。
我々は,合成データと実データとのギャップを埋めるために知識調整戦略を設計し,その手法を標準化するための知識ドロップ戦略を設計する。
提案手法は,多くの実験において最先端のベースラインよりも優れる。
- 参考スコア(独自算出の注目度): 30.12011980145613
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Federated learning is a paradigm of joint learning in which clients collaborate by sharing model parameters instead of data. However, in the non-iid setting, the global model experiences client drift, which can seriously affect the final performance of the model. Previous methods tend to correct the global model that has already deviated based on the loss function or gradient, overlooking the impact of the client samples. In this paper, we rethink the role of the client side and propose Federated Balanced Learning, i.e., FBL, to prevent this issue from the beginning through sample balance on the client side. Technically, FBL allows unbalanced data on the client side to achieve sample balance through knowledge filling and knowledge sampling using edge-side generation models, under the limitation of a fixed number of data samples on clients. Furthermore, we design a Knowledge Alignment Strategy to bridge the gap between synthetic and real data, and a Knowledge Drop Strategy to regularize our method. Meanwhile, we scale our method to real and complex scenarios, allowing different clients to adopt various methods, and extend our framework to further improve performance. Numerous experiments show that our method outperforms state-of-the-art baselines. The code is released upon acceptance.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、クライアントがデータではなくモデルパラメータを共有することでコラボレーションする、共同学習のパラダイムである。
しかし、非ID設定では、グローバルモデルがクライアントドリフトを経験し、モデルの最終性能に深刻な影響を及ぼす可能性がある。
従来の手法では、損失関数や勾配に基づいて既に逸脱したグローバルモデルを修正し、クライアントサンプルの影響を見越す傾向にある。
本稿では,クライアント側の役割を再考し,クライアント側のサンプルバランスからこの問題を回避するために,フェデレートバランス学習(FBL)を提案する。
技術的には、FBLはクライアント側の不均衡なデータに対して、クライアント上の固定数のデータサンプルの制限の下で、エッジ側生成モデルを用いた知識充足と知識サンプリングを通じてサンプルバランスを達成することができる。
さらに,合成データと実データとのギャップを埋める知識アライメント戦略と,手法を標準化するための知識ドロップ戦略を設計する。
一方、我々はメソッドを現実的で複雑なシナリオに拡張し、異なるクライアントが様々なメソッドを適用できるようにし、フレームワークを拡張してパフォーマンスをさらに向上させます。
多くの実験により,本手法は最先端のベースラインよりも優れていた。
コードは受理時に解放される。
関連論文リスト
- ConDa: Fast Federated Unlearning with Contribution Dampening [46.074452659791575]
ConDaは、各クライアントのグローバルモデルに影響を与えるパラメータを追跡することによって、効率的なアンラーニングを実行するフレームワークである。
複数のデータセットで実験を行い、ConDaがクライアントのデータを忘れるのが効果的であることを実証する。
論文 参考訳(メタデータ) (2024-10-05T12:45:35Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Elastically-Constrained Meta-Learner for Federated Learning [3.032797107899338]
フェデレートラーニング(Federated Learning)とは、データ共有を禁止する複数のパーティを対象とした、協調的な機械学習モデルに対するアプローチである。
フェデレーション学習の課題の1つは、クライアント間の非制約データである。
論文 参考訳(メタデータ) (2023-06-29T05:58:47Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。