論文の概要: A Federated Generalized Expectation-Maximization Algorithm for Mixture Models with an Unknown Number of Components
- arxiv url: http://arxiv.org/abs/2601.21160v1
- Date: Thu, 29 Jan 2026 01:51:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.50685
- Title: A Federated Generalized Expectation-Maximization Algorithm for Mixture Models with an Unknown Number of Components
- Title(参考訳): 未知成分数混合モデルの一般化期待最大化アルゴリズム
- Authors: Michael Ibrahim, Nagi Gebraeel, Weijun Xie,
- Abstract要約: FedGEMは、未知の成分を持つ混合モデルのトレーニングのための一般化された予測最大化アルゴリズムである。
提案アルゴリズムは,各クライアントがEMステップをローカルに実行し,各ローカルコンポーネントに関連付けられた最大値に関する不確実性セットを構築する。
中央サーバは不確実性セットを使用して、クライアント間の潜在的なクラスタオーバーラップを学習し、クラスタのグローバル数を予測する。
- 参考スコア(独自算出の注目度): 4.369474715585884
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of federated clustering when the total number of clusters $K$ across clients is unknown, and the clients have heterogeneous but potentially overlapping cluster sets in their local data. To that end, we develop FedGEM: a federated generalized expectation-maximization algorithm for the training of mixture models with an unknown number of components. Our proposed algorithm relies on each of the clients performing EM steps locally, and constructing an uncertainty set around the maximizer associated with each local component. The central server utilizes the uncertainty sets to learn potential cluster overlaps between clients, and infer the global number of clusters via closed-form computations. We perform a thorough theoretical study of our algorithm, presenting probabilistic convergence guarantees under common assumptions. Subsequently, we study the specific setting of isotropic GMMs, providing tractable, low-complexity computations to be performed by each client during each iteration of the algorithm, as well as rigorously verifying assumptions required for algorithm convergence. We perform various numerical experiments, where we empirically demonstrate that our proposed method achieves comparable performance to centralized EM, and that it outperforms various existing federated clustering methods.
- Abstract(参考訳): 本稿では,クライアント間のクラスタ数$K$が不明な場合のフェデレーションクラスタリングの問題について検討する。
そこで我々は,未知の成分を含む混合モデルのトレーニングのための一般化予測最大化アルゴリズムであるFedGEMを開発した。
提案アルゴリズムは,各クライアントがEMステップをローカルに実行し,各ローカルコンポーネントに関連付けられた最大値に関する不確実性セットを構築する。
中央サーバは、不確実性セットを使用して、クライアント間の潜在的なクラスタオーバーラップを学習し、クローズドフォーム計算によってクラスタのグローバルな数を推測する。
我々は,確率収束保証を共通仮定の下で提示するアルゴリズムについて,徹底した理論的研究を行う。
次に,アルゴリズムの反復間,各クライアントが実行すべきトラクタブルで低複雑性な計算を提供し,アルゴリズム収束に必要な仮定を厳密に検証する等方性GMMの具体的設定について検討する。
提案手法は,集中型EMに匹敵する性能を示し,既存のクラスタリング手法よりも優れた性能を示す。
関連論文リスト
- One-Shot Hierarchical Federated Clustering [51.490181220883905]
本稿では,効率的な階層型クラスタリングフレームワークを提案する。
クライアント-エンドの分散探索とサーバ-エンドの分散アグリゲーションを実行する。
クライアント間の複雑なクラスタ分布を効率的に探索できることが判明した。
論文 参考訳(メタデータ) (2026-01-10T02:58:33Z) - Federated Multi-Task Clustering [44.73672172790804]
本稿では,Federated Multi-Task Clustering(FMTC)という新しいフレームワークを提案する。
クライアント側パーソナライズされたクラスタリングモジュールとサーバ側テンソル相関モジュールの2つの主要コンポーネントで構成されている。
乗算器の交互方向法に基づく,効率的なプライバシ保護分散アルゴリズムを導出する。
論文 参考訳(メタデータ) (2025-12-28T12:02:32Z) - Parameter-Free Clustering via Self-Supervised Consensus Maximization (Extended Version) [50.41628860536753]
本稿では,SCMax と呼ばれる自己教師型コンセンサス最大化による,新しい完全パラメータフリークラスタリングフレームワークを提案する。
本フレームワークは,階層的なクラスタリングとクラスタ評価を単一の統合プロセスで行う。
論文 参考訳(メタデータ) (2025-11-12T11:17:17Z) - Dynamically Weighted Federated k-Means [0.0]
フェデレートされたクラスタリングにより、複数のデータソースが協力してデータをクラスタリングし、分散化とプライバシ保護を維持できる。
我々は,ロイドのk-meansクラスタリング法に基づいて,動的に重み付けされたk-means (DWF k-means) という新しいクラスタリングアルゴリズムを提案する。
我々は、クラスタリングスコア、精度、およびv尺度の観点から、アルゴリズムの性能を評価するために、複数のデータセットとデータ分散設定の実験を行う。
論文 参考訳(メタデータ) (2023-10-23T12:28:21Z) - Federated cINN Clustering for Accurate Clustered Federated Learning [33.72494731516968]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習に対する革新的なアプローチである。
本稿では,クライアントを複数のグループに頑健にクラスタリングするFederated cINN Clustering Algorithm (FCCA)を提案する。
論文 参考訳(メタデータ) (2023-09-04T10:47:52Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - On the Convergence of Clustered Federated Learning [57.934295064030636]
統合学習システムでは、例えばモバイルデバイスや組織参加者といったクライアントは通常、個人の好みや行動パターンが異なる。
本稿では,クライアントグループと各クライアントを統一最適化フレームワークで活用する,新しい重み付きクライアントベースクラスタリングFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T02:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。