論文の概要: FedDAG: Clustered Federated Learning via Global Data and Gradient Integration for Heterogeneous Environments
- arxiv url: http://arxiv.org/abs/2602.23504v1
- Date: Thu, 26 Feb 2026 21:20:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.134492
- Title: FedDAG: Clustered Federated Learning via Global Data and Gradient Integration for Heterogeneous Environments
- Title(参考訳): FedDAG: グローバルデータによるクラスタ化フェデレーション学習と異種環境へのグラディエント統合
- Authors: Anik Pramanik, Murat Kantarcioglu, Vincent Oria, Shantanu Sharma,
- Abstract要約: フェデレートラーニング(FL)により、クライアントのグループは、個々のデータを共有せずに、協調的にモデルをトレーニングできるが、クライアントデータが不均一である場合には、そのパフォーマンスは低下する。
本稿では,データと情報を統合した重み付きクラスワイド類似度指標を用いたクラスタリングFLフレームワークであるFedDAGを紹介する。
多様なベンチマークとデータ設定の実験により、FedDAGは最先端のクラスタ化されたFLベースラインの精度を一貫して上回っている。
- 参考スコア(独自算出の注目度): 11.797290397638962
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables a group of clients to collaboratively train a model without sharing individual data, but its performance drops when client data are heterogeneous. Clustered FL tackles this by grouping similar clients. However, existing clustered FL approaches rely solely on either data similarity or gradient similarity; however, this results in an incomplete assessment of client similarities. Prior clustered FL approaches also restrict knowledge and representation sharing to clients within the same cluster. This prevents cluster models from benefiting from the diverse client population across clusters. To address these limitations, FedDAG introduces a clustered FL framework, FedDAG, that employs a weighted, class-wise similarity metric that integrates both data and gradient information, providing a more holistic measure of similarity during clustering. In addition, FedDAG adopts a dual-encoder architecture for cluster models, comprising a primary encoder trained on its own clients' data and a secondary encoder refined using gradients from complementary clusters. This enables cross-cluster feature transfer while preserving cluster-specific specialization. Experiments on diverse benchmarks and data heterogeneity settings show that FedDAG consistently outperforms state-of-the-art clustered FL baselines in accuracy.
- Abstract(参考訳): フェデレートラーニング(FL)により、クライアントのグループは、個々のデータを共有せずに、協調的にモデルをトレーニングできるが、クライアントデータが不均一である場合には、そのパフォーマンスは低下する。
クラスタ化されたFLは、同様のクライアントをグループ化することでこの問題に取り組む。
しかし、既存のクラスタ化FLアプローチはデータ類似性または勾配類似性にのみ依存するが、これはクライアント類似性の不完全な評価をもたらす。
以前のクラスタ化FLアプローチでは、同じクラスタ内のクライアントに対する知識と表現の共有も制限されていた。
これにより、クラスタモデルがクラスタ間の多様なクライアント人口の恩恵を受けるのを防ぎます。
これらの制限に対処するため、FedDAGはクラスタ化FLフレームワークであるFedDAGを導入し、データと勾配情報の両方を統合する重み付けされたクラスワイドの類似度メトリックを使用し、クラスタリング中に類似度をより包括的に測定する。
さらに、FedDAGはクラスタモデルにデュアルエンコーダアーキテクチャを採用し、独自のクライアントのデータに基づいてトレーニングされたプライマリエンコーダと、補完クラスタからの勾配を使用して洗練されたセカンダリエンコーダで構成される。
これにより、クラスタ固有の特殊化を保持しながら、クラスタ間の機能転送が可能になる。
多様なベンチマークとデータ不均一性設定の実験により、FedDAGは最先端のクラスタ化されたFLベースラインを精度で一貫して上回っていることが示されている。
関連論文リスト
- One-Shot Hierarchical Federated Clustering [51.490181220883905]
本稿では,効率的な階層型クラスタリングフレームワークを提案する。
クライアント-エンドの分散探索とサーバ-エンドの分散アグリゲーションを実行する。
クライアント間の複雑なクラスタ分布を効率的に探索できることが判明した。
論文 参考訳(メタデータ) (2026-01-10T02:58:33Z) - Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - A Bayesian Framework for Clustered Federated Learning [14.426129993432193]
連邦学習(FL)の主な課題の1つは、非独立で同一に分散された(非IID)クライアントデータを扱うことである。
本稿では、クライアントをクラスタに関連付けるクラスタ化FLのための統一ベイズフレームワークを提案する。
この作業は、クライアントとクラスタの関連に関する洞察を提供し、新しい方法でクライアントの知識共有を可能にする。
論文 参考訳(メタデータ) (2024-10-20T19:11:24Z) - Federated Contrastive Learning for Personalized Semantic Communication [55.46383524190467]
我々は,パーソナライズされたセマンティックコミュニケーションを支援することを目的とした,協調型コントラスト学習フレームワークを設計する。
FedCLは、複数のクライアントにわたるローカルセマンティックエンコーダと、基地局が所有するグローバルセマンティックデコーダの協調トレーニングを可能にする。
分散クライアント間の異種データセットから生じるセマンティック不均衡問題に対処するために,コントラスト学習を用いてセマンティックセントロイドジェネレータを訓練する。
論文 参考訳(メタデータ) (2024-06-13T14:45:35Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Federated cINN Clustering for Accurate Clustered Federated Learning [33.72494731516968]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習に対する革新的なアプローチである。
本稿では,クライアントを複数のグループに頑健にクラスタリングするFederated cINN Clustering Algorithm (FCCA)を提案する。
論文 参考訳(メタデータ) (2023-09-04T10:47:52Z) - CADIS: Handling Cluster-skewed Non-IID Data in Federated Learning with
Clustered Aggregation and Knowledge DIStilled Regularization [3.3711670942444014]
フェデレーション学習は、エッジデバイスがデータを公開することなく、グローバルモデルを協調的にトレーニングすることを可能にする。
我々は、実際のデータセットで発見されたクラスタスキュード非IIDと呼ばれる新しいタイプの非IIDデータに取り組む。
本稿では,クラスタ間の平等を保証するアグリゲーション方式を提案する。
論文 参考訳(メタデータ) (2023-02-21T02:53:37Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - On the Convergence of Clustered Federated Learning [57.934295064030636]
統合学習システムでは、例えばモバイルデバイスや組織参加者といったクライアントは通常、個人の好みや行動パターンが異なる。
本稿では,クライアントグループと各クライアントを統一最適化フレームワークで活用する,新しい重み付きクライアントベースクラスタリングFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T02:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。