論文の概要: Single-Round Clustered Federated Learning via Data Collaboration Analysis for Non-IID Data
- arxiv url: http://arxiv.org/abs/2601.09304v1
- Date: Wed, 14 Jan 2026 09:14:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.348147
- Title: Single-Round Clustered Federated Learning via Data Collaboration Analysis for Non-IID Data
- Title(参考訳): 非IIDデータに対するデータ協調解析による単行クラスタ化フェデレーション学習
- Authors: Sota Sugawara, Yuji Kawamata, Akihiro Toyoda, Tomoru Nakayama, Yukihiko Okada,
- Abstract要約: クラスタ化されたフェデレートラーニング(CFL)は、類似のクライアントをグループ化してクラスタレベルのモデルをトレーニングすることで、パフォーマンスを向上させることができる。
ほとんどのCFLアプローチは、クラスタ推定とモデル更新のために複数の通信ラウンドに依存しています。
データコラボレーションに基づくクラスタ化フェデレーション学習(DC-CFL)を提案する。
- 参考スコア(独自算出の注目度): 2.055204980188575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) enables distributed learning across multiple clients without sharing raw data. When statistical heterogeneity across clients is severe, Clustered Federated Learning (CFL) can improve performance by grouping similar clients and training cluster-wise models. However, most CFL approaches rely on multiple communication rounds for cluster estimation and model updates, which limits their practicality under tight constraints on communication rounds. We propose Data Collaboration-based Clustered Federated Learning (DC-CFL), a single-round framework that completes both client clustering and cluster-wise learning, using only the information shared in DC analysis. DC-CFL quantifies inter-client similarity via total variation distance between label distributions, estimates clusters using hierarchical clustering, and performs cluster-wise learning via DC analysis. Experiments on multiple open datasets under representative non-IID conditions show that DC-CFL achieves accuracy comparable to multi-round baselines while requiring only one communication round. These results indicate that DC-CFL is a practical alternative for collaborative AI model development when multiple communication rounds are impractical.
- Abstract(参考訳): Federated Learning (FL)は、生データを共有せずに、複数のクライアント間で分散学習を可能にする。
クライアント間の統計的不均一性が深刻である場合には、CFL(Clustered Federated Learning)は、類似のクライアントをグループ化し、クラスタワイズモデルをトレーニングすることで、パフォーマンスを向上させることができる。
しかし、ほとんどのCFLアプローチは、クラスタ推定とモデル更新のために複数の通信ラウンドに依存しており、通信ラウンドの厳密な制約の下でその実用性を制限する。
データコラボレーションに基づくクラスタ化フェデレーション学習(DC-CFL)を提案する。これは,DC分析で共有される情報のみを用いて,クライアントクラスタリングとクラスタ学習の両方を補完する単一ラウンドフレームワークである。
DC-CFLは、ラベル分布間の全変動距離を介してクライアント間類似性を定量化し、階層的クラスタリングを用いてクラスタを推定し、DC分析を介してクラスタワイズ学習を行う。
代表的な非IID条件下での複数のオープンデータセットの実験では、DC-CFLは1ラウンドの通信ラウンドしか必要とせず、複数ラウンドのベースラインに匹敵する精度を達成している。
これらの結果から,DC-CFLは,複数の通信ラウンドが現実的でない場合に,協調型AIモデル開発のための実用的な代替手段であることが示唆された。
関連論文リスト
- One-Shot Clustering for Federated Learning [2.8060709233558647]
One-Shot Clustered Federated Learning (OCFL)は、クラスタリングに最も適した瞬間を自動的に検出するクラスタリングに依存しないアルゴリズムである。
本アルゴリズムは,クライアントの勾配のコサイン類似性の計算と,フェデレートモデルが収束し始める温度測定値に基づく。
論文 参考訳(メタデータ) (2025-03-06T09:12:43Z) - FedClust: Tackling Data Heterogeneity in Federated Learning through Weight-Driven Client Clustering [26.478852701376294]
フェデレートラーニング(Federated Learning, FL)は、分散機械学習のパラダイムである。
FLの主な課題の1つは、クライアントデバイスにまたがる不均一なデータ分散の存在である。
我々は,局所モデル重みとクライアントのデータ分布の相関を利用したCFLの新しい手法であるFedClustを提案する。
論文 参考訳(メタデータ) (2024-07-09T02:47:16Z) - FedClust: Optimizing Federated Learning on Non-IID Data through
Weight-Driven Client Clustering [28.057411252785176]
Federated Learning(FL)は、分散型デバイス上で、ローカルデータを公開せずにコラボレーティブなモデルトレーニングを可能にする、新興の分散機械学習パラダイムである。
本稿では,局所モデル重みとクライアントデータ分布の相関を利用した新しいCFL手法であるFedClustを提案する。
論文 参考訳(メタデータ) (2024-03-07T01:50:36Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Stochastic Clustered Federated Learning [21.811496586350653]
本稿では,一般の非IID問題に対する新しいクラスタ化フェデレーション学習手法であるStoCFLを提案する。
詳細は、StoCFLは、任意の割合のクライアント参加と新しく加入したクライアントをサポートする柔軟なCFLフレームワークを実装しています。
その結果,StoCFLはクラスタ数の不明な場合でも,有望なクラスタ結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-03-02T01:39:16Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - On the Convergence of Clustered Federated Learning [57.934295064030636]
統合学習システムでは、例えばモバイルデバイスや組織参加者といったクライアントは通常、個人の好みや行動パターンが異なる。
本稿では,クライアントグループと各クライアントを統一最適化フレームワークで活用する,新しい重み付きクライアントベースクラスタリングFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T02:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。