論文の概要: Client-Conditional Federated Learning via Local Training Data Statistics
- arxiv url: http://arxiv.org/abs/2603.11307v1
- Date: Wed, 11 Mar 2026 21:06:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.647451
- Title: Client-Conditional Federated Learning via Local Training Data Statistics
- Title(参考訳): 地域学習データ統計を用いたクライアント主導型フェデレーションラーニング
- Authors: Rickard Brännvall,
- Abstract要約: 本稿では,各クライアントのトレーニングデータの局所計算によるPCA統計に対して,単一のグローバルモデルを条件付けすることを提案する。
私たちのメソッドは、すべての設定で、真のクラスタ割り当てを知っているOracleのベースラインと一致しています。
- 参考スコア(独自算出の注目度): 4.56877715768796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) under data heterogeneity remains challenging: existing methods either ignore client differences (FedAvg), require costly cluster discovery (IFCA), or maintain per-client models (Ditto). All degrade when data is sparse or heterogeneity is multi-dimensional. We propose conditioning a single global model on locally-computed PCA statistics of each client's training data, requiring zero additional communication. Evaluating across 97~configurations spanning four heterogeneity types (label shift, covariate shift, concept shift, and combined heterogeneity), four datasets (MNIST, Fashion-MNIST, CIFAR-10, CIFAR-100), and seven FL baseline methods, we find that our method matches the Oracle baseline -- which knows true cluster assignments -- across all settings, surpasses it by 1--6% on combined heterogeneity where continuous statistics are richer than discrete cluster identifiers, and is uniquely sparsity-robust among all tested methods.
- Abstract(参考訳): 既存のメソッドでは、クライアントの違い(FedAvg)を無視したり、コストのかかるクラスタディスカバリ(IFCA)を必要としたり、クライアント毎のモデル(Ditto)を維持したりする。
データがスパースまたはヘテロジニティである場合、すべての劣化は多次元である。
そこで本研究では,各クライアントのトレーニングデータの局所計算によるPCA統計値に単一グローバルモデルを適用することを提案する。
MNIST, Fashion-MNIST, CIFAR-10, CIFAR-100) と7つのFLベースラインメソッドの4つのデータセット(ラベルシフト, 共変量シフト, 概念シフト, 結合ヘテロジニティ)にまたがる97~設定を評価すると、我々のメソッドは、真のクラスタ割り当てを知っているOracleのベースラインと一致し、すべての設定で、連続統計が離散クラスタ識別子よりもリッチで、テスト対象のメソッドの中で、一意に疎結合である。
関連論文リスト
- FedQuad: Federated Stochastic Quadruplet Learning to Mitigate Data Heterogeneity [2.298932494750101]
フェデレートラーニング(FL)は、分散データやプライバシ保護といった問題に効果的に取り組む分散モデルトレーニングを提供する。
クライアント間でのクラス内分散とクラス間分散を明示的に最適化する新しい方法であるtextitFedQuadを提案する。
提案手法は, 類似したペア間の距離を最小化しつつ, 負のペア間の距離を最大化し, 共有特徴空間内のクライアントデータを効果的に切り離す手法である。
論文 参考訳(メタデータ) (2025-09-04T11:11:10Z) - FedDiverse: Tackling Data Heterogeneity in Federated Learning with Diversity-Driven Client Selection [21.93193941981852]
フェデレートラーニング(FL)は、分散データに基づく機械学習モデルの分散トレーニングを可能にする。
現実世界のFL設定では、クライアントデータは不特定に分散され、不均衡になることが多い。
FEDDIVERSEはFLにおける新しいクライアント選択アルゴリズムであり、クライアント間のデータの均一性を管理・活用する。
論文 参考訳(メタデータ) (2025-04-15T14:20:42Z) - Personalized federated learning based on feature fusion [2.943623084019036]
フェデレートされた学習により、分散クライアントは、クライアントのプライバシを保護するためにデータをローカルに保存しながら、トレーニングで協力することができる。
pFedPMと呼ばれる個人化学習手法を提案する。
このプロセスでは、従来のグラデーションアップロードを機能アップロードに置き換え、通信コストを削減し、異種クライアントモデルを可能にする。
論文 参考訳(メタデータ) (2024-06-24T12:16:51Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [55.0981921695672]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Federated Two Stage Decoupling With Adaptive Personalization Layers [5.69361786082969]
フェデレーション学習は、プライバシ制約を維持しながら分散学習を可能にする能力によって、大きな注目を集めている。
本質的には、学習の劣化と収束速度の低下を経験する。
等質なクライアントを同じ群にクラスタリングするという概念を採用することは自然であり、各群内のモデル重みのみを集約することができる。
論文 参考訳(メタデータ) (2023-08-30T07:46:32Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。