論文の概要: DPMM-CFL: Clustered Federated Learning via Dirichlet Process Mixture Model Nonparametric Clustering
- arxiv url: http://arxiv.org/abs/2510.07132v1
- Date: Wed, 08 Oct 2025 15:27:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.594089
- Title: DPMM-CFL: Clustered Federated Learning via Dirichlet Process Mixture Model Nonparametric Clustering
- Title(参考訳): DPMM-CFL:ディリクレプロセス混合モデル非パラメトリッククラスタリングによるクラスタ化フェデレーション学習
- Authors: Mariona Jaramillo-Civill, Peng Wu, Pau Closas,
- Abstract要約: クラスタ化されたフェデレートラーニングは、非IIDクライアントの不均一性の下でのパフォーマンスを改善する。
ほとんどのCFL法は、プリオリを固定するためにクラスターKの数を必要とする。
本稿では,クラスタパラメータの分布に先立ってディリクレプロセス(DP)を配置するCFLアルゴリズムDPMM-CFLを提案する。
- 参考スコア(独自算出の注目度): 8.645893961456801
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clustered Federated Learning (CFL) improves performance under non-IID client heterogeneity by clustering clients and training one model per cluster, thereby balancing between a global model and fully personalized models. However, most CFL methods require the number of clusters K to be fixed a priori, which is impractical when the latent structure is unknown. We propose DPMM-CFL, a CFL algorithm that places a Dirichlet Process (DP) prior over the distribution of cluster parameters. This enables nonparametric Bayesian inference to jointly infer both the number of clusters and client assignments, while optimizing per-cluster federated objectives. This results in a method where, at each round, federated updates and cluster inferences are coupled, as presented in this paper. The algorithm is validated on benchmark datasets under Dirichlet and class-split non-IID partitions.
- Abstract(参考訳): CFL(Clustered Federated Learning)は、クライアントをクラスタ化してクラスタ毎に1つのモデルをトレーニングすることで、非IIDクライアントの不均一性の下でのパフォーマンスを改善し、グローバルモデルと完全にパーソナライズされたモデルのバランスをとる。
しかし、ほとんどの CFL 法では、前置詞を固定するためにクラスタ数 K を必要とするが、これは潜伏構造が未知の場合に非現実的である。
本稿では,クラスタパラメータの分布に先立ってディリクレプロセス(DP)を配置するCFLアルゴリズムDPMM-CFLを提案する。
これにより、非パラメトリックベイズ推論はクラスタ数とクライアント割り当ての両方を共同で推測し、クラスタ毎のフェデレーション目標を最適化することができる。
この結果,各ラウンドでフェデレートされた更新とクラスタ推論が結合される手法が提案される。
このアルゴリズムはディリクレとクラス分割された非IIDパーティションのベンチマークデータセットで検証される。
関連論文リスト
- CLoVE: Personalized Federated Learning through Clustering of Loss Vector Embeddings [1.966764032092535]
クラスタ化フェデレーション学習(CFL)のための新しいアルゴリズムであるCLoVEを提案する。
CLoVEは、クライアントデータに対するモデル損失に由来するクライアントの埋め込みを利用し、同じクラスタ内のクライアントが同様の損失値を共有するという洞察を活用する。
CLoVEは、異なるクラスタからクライアントを反復的に識別し、分離し、クラスタ固有のモデルを最適化することができる。
論文 参考訳(メタデータ) (2025-06-27T17:52:16Z) - One-Shot Clustering for Federated Learning [2.8060709233558647]
One-Shot Clustered Federated Learning (OCFL)は、クラスタリングに最も適した瞬間を自動的に検出するクラスタリングに依存しないアルゴリズムである。
本アルゴリズムは,クライアントの勾配のコサイン類似性の計算と,フェデレートモデルが収束し始める温度測定値に基づく。
論文 参考訳(メタデータ) (2025-03-06T09:12:43Z) - Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - LCFed: An Efficient Clustered Federated Learning Framework for Heterogeneous Data [21.341280782748278]
クラスタ型フェデレーションラーニング(CFL)は、フェデレーションラーニング(FL)におけるデータ不均一性に起因するパフォーマンス上の課題に対処する。
既存のCFLアプローチは、クラスタ内の知識共有を厳密に制限し、クラスタ内のトレーニングとグローバル知識の統合を欠いている。
これらの課題に対処するための効率的なCFLフレームワークであるLCFedを提案する。
論文 参考訳(メタデータ) (2025-01-03T14:59:48Z) - End-to-end Learnable Clustering for Intent Learning in Recommendation [54.157784572994316]
我々は、アンダーラインELCRecと呼ばれる新しい意図学習手法を提案する。
振る舞い表現学習をUnderlineEnd-to-end UnderlineLearnable UnderlineClusteringフレームワークに統合する。
1億3000万ページビューの産業レコメンデーションシステムに本手法をデプロイし,有望な結果を得る。
論文 参考訳(メタデータ) (2024-01-11T15:22:55Z) - Stochastic Clustered Federated Learning [21.811496586350653]
本稿では,一般の非IID問題に対する新しいクラスタ化フェデレーション学習手法であるStoCFLを提案する。
詳細は、StoCFLは、任意の割合のクライアント参加と新しく加入したクライアントをサポートする柔軟なCFLフレームワークを実装しています。
その結果,StoCFLはクラスタ数の不明な場合でも,有望なクラスタ結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-03-02T01:39:16Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - Personalized Federated Learning via Convex Clustering [72.15857783681658]
本稿では,局所凸型ユーザコストを用いた個人化フェデレーション学習のためのアルゴリズム群を提案する。
提案するフレームワークは,異なるユーザのモデルの違いをペナル化する凸クラスタリングの一般化に基づいている。
論文 参考訳(メタデータ) (2022-02-01T19:25:31Z) - Neural Mixture Models with Expectation-Maximization for End-to-end Deep
Clustering [0.8543753708890495]
本稿では,ニューラルネットワークを用いた混合モデルに基づくクラスタリングを実現する。
我々は,Eステップとして前方パス,Mステップとして後方パスを動作させるバッチワイズEMイテレーションにより,ネットワークのエンドツーエンドをトレーニングする。
トレーニングされたネットワークは、k-meansに依存した単一ステージのディープクラスタリング手法よりも優れています。
論文 参考訳(メタデータ) (2021-07-06T08:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。