論文の概要: DFCA: Decentralized Federated Clustering Algorithm
- arxiv url: http://arxiv.org/abs/2510.15300v1
- Date: Fri, 17 Oct 2025 04:17:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.468905
- Title: DFCA: Decentralized Federated Clustering Algorithm
- Title(参考訳): DFCA: 分散フェデレーションクラスタリングアルゴリズム
- Authors: Jonas Kirch, Sebastian Becker, Tiago Koketsu Rodrigues, Stefan Harmeling,
- Abstract要約: DFCAは、クライアントが集中的な調整なしにクラスタ固有のモデルを協調的に訓練することを可能にする、完全に分散化されたクラスタ化FLアルゴリズムである。
DFCAはシーケンシャルな実行平均を使い、更新が到着すると近隣のモデルを集約し、バッチアグリゲーションに代わる通信効率の高い代替手段を提供する。
本実験は,DFCAが他の分散アルゴリズムより優れ,集中型IFCAと同等に動作することを示す。
- 参考スコア(独自算出の注目度): 5.898448236416388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clustered Federated Learning has emerged as an effective approach for handling heterogeneous data across clients by partitioning them into clusters with similar or identical data distributions. However, most existing methods, including the Iterative Federated Clustering Algorithm (IFCA), rely on a central server to coordinate model updates, which creates a bottleneck and a single point of failure, limiting their applicability in more realistic decentralized learning settings. In this work, we introduce DFCA, a fully decentralized clustered FL algorithm that enables clients to collaboratively train cluster-specific models without central coordination. DFCA uses a sequential running average to aggregate models from neighbors as updates arrive, providing a communication-efficient alternative to batch aggregation while maintaining clustering performance. Our experiments on various datasets demonstrate that DFCA outperforms other decentralized algorithms and performs comparably to centralized IFCA, even under sparse connectivity, highlighting its robustness and practicality for dynamic real-world decentralized networks.
- Abstract(参考訳): クラスタ化されたフェデレーションラーニングは、同一または同一のデータ分散を持つクラスタに分割することで、クライアント間での不均一なデータを処理するための効果的なアプローチとして登場した。
しかし、IFCA(Iterative Federated Clustering Algorithm)など、既存のほとんどのメソッドは、モデル更新を調整するために中央サーバに依存しており、ボトルネックと単一障害点を生成し、より現実的な分散学習環境での適用性を制限している。
本研究では、クライアントが集中的な調整なしにクラスタ固有のモデルを協調的に訓練できる、完全に分散化されたクラスタ化FLアルゴリズムであるDFCAを紹介する。
DFCAはシーケンシャルなランニング平均を使用して、更新の到着時に隣人のモデルを集約し、クラスタリング性能を維持しながら、バッチアグリゲーションに代わる通信効率のよい手段を提供する。
各種データセットに対する実験により,DFCAは他の分散化アルゴリズムよりも優れており,疎結合下であっても集中型IFCAと互換性があり,動的リアルタイム分散化ネットワークの堅牢性と実用性を強調した。
関連論文リスト
- A new type of federated clustering: A non-model-sharing approach [6.5347053452025206]
本研究では,データ協調クラスタリング(DC-Clustering)を提案する。
DC-Clusteringは、水平と垂直の分割が共存する複雑なデータパーティショニングシナリオ上のクラスタリングをサポートする。
その結果,本手法は,すべてのデータがプールされている集中クラスタリングに匹敵するクラスタリング性能が得られた。
論文 参考訳(メタデータ) (2025-06-11T23:57:26Z) - Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - FedSPD: A Soft-clustering Approach for Personalized Decentralized Federated Learning [23.140777064095833]
フェデレーション学習は、分散クライアントがローカルデータを使用して機械学習モデルを協調的にトレーニングするためのフレームワークである。
分散環境のための効率的パーソナライズされたフェデレーション学習アルゴリズムであるFedSPDを提案する。
低接続性ネットワークにおいてもFedSPDが正確なモデルを学ぶことを示す。
論文 参考訳(メタデータ) (2024-10-24T15:48:34Z) - Boosting the Performance of Decentralized Federated Learning via Catalyst Acceleration [66.43954501171292]
本稿では,Catalytics Accelerationを導入し,DFedCataと呼ばれる促進型分散フェデレート学習アルゴリズムを提案する。
DFedCataは、パラメータの不整合に対処するMoreauエンベロープ関数と、アグリゲーションフェーズを加速するNesterovの外挿ステップの2つの主要コンポーネントで構成されている。
実験により, CIFAR10/100における収束速度と一般化性能の両面において, 提案アルゴリズムの利点を実証した。
論文 参考訳(メタデータ) (2024-10-09T06:17:16Z) - Fuzzy K-Means Clustering without Cluster Centroids [21.256564324236333]
ファジィK平均クラスタリングは教師なしデータ分析において重要な手法である。
本稿では,クラスタセントロイドへの依存を完全に排除する,ファジィテクストK-Meansクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-07T12:25:03Z) - End-to-end Learnable Clustering for Intent Learning in Recommendation [54.157784572994316]
我々は、アンダーラインELCRecと呼ばれる新しい意図学習手法を提案する。
振る舞い表現学習をUnderlineEnd-to-end UnderlineLearnable UnderlineClusteringフレームワークに統合する。
1億3000万ページビューの産業レコメンデーションシステムに本手法をデプロイし,有望な結果を得る。
論文 参考訳(メタデータ) (2024-01-11T15:22:55Z) - Dynamically Weighted Federated k-Means [0.0]
フェデレートされたクラスタリングにより、複数のデータソースが協力してデータをクラスタリングし、分散化とプライバシ保護を維持できる。
我々は,ロイドのk-meansクラスタリング法に基づいて,動的に重み付けされたk-means (DWF k-means) という新しいクラスタリングアルゴリズムを提案する。
我々は、クラスタリングスコア、精度、およびv尺度の観点から、アルゴリズムの性能を評価するために、複数のデータセットとデータ分散設定の実験を行う。
論文 参考訳(メタデータ) (2023-10-23T12:28:21Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。