論文の概要: Federated Hierarchical Clustering with Automatic Selection of Optimal Cluster Numbers
- arxiv url: http://arxiv.org/abs/2603.12684v1
- Date: Fri, 13 Mar 2026 05:58:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.931479
- Title: Federated Hierarchical Clustering with Automatic Selection of Optimal Cluster Numbers
- Title(参考訳): 最適クラスタ数の自動選択による階層クラスタリング
- Authors: Yue Zhang, Chuanlong Qiu, Xinfa Liao, Yiqun Zhang,
- Abstract要約: Federated Clustering(FC)は、分散およびプライバシ保護されたデータから、教師なしの方法でデータ分散パターンを探索する、新しくて有望なソリューションである。
我々はFed-$k*$-HCという新しいFCフレームワークを提案し、階層的クラスタリングによって探索されたデータ分布に基づいて最適なクラスタ数$k*$を自動的に決定できる。
- 参考スコア(独自算出の注目度): 13.396894845465468
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Clustering (FC) is an emerging and promising solution in exploring data distribution patterns from distributed and privacy-protected data in an unsupervised manner. Existing FC methods implicitly rely on the assumption that clients are with a known number of uniformly sized clusters. However, the true number of clusters is typically unknown, and cluster sizes are naturally imbalanced in real scenarios. Furthermore, the privacy-preserving transmission constraints in federated learning inevitably reduce usable information, making the development of robust and accurate FC extremely challenging. Accordingly, we propose a novel FC framework named Fed-$k^*$-HC, which can automatically determine an optimal number of clusters $k^*$ based on the data distribution explored through hierarchical clustering. To obtain the global data distribution for $k^*$ determination, we let each client generate micro-subclusters. Their prototypes are then uploaded to the server for hierarchical merging. The density-based merging design allows exploring clusters of varying sizes and shapes, and the progressive merging process can self-terminate according to the neighboring relationships among the prototypes to determine $k^*$. Extensive experiments on diverse datasets demonstrate the FC capability of the proposed Fed-$k^*$-HC in accurately exploring a proper number of clusters.
- Abstract(参考訳): Federated Clustering(FC)は、分散およびプライバシ保護されたデータから、教師なしの方法でデータ分散パターンを探索する、新しくて有望なソリューションである。
既存のFCメソッドは、クライアントが既知の一様サイズのクラスタの数を持っているという仮定に暗黙的に依存している。
しかし、クラスタの真の数は通常不明であり、クラスタのサイズは実際のシナリオでは自然に不均衡である。
さらに、フェデレーション学習におけるプライバシー保護送信制約は、必然的に使用可能な情報を低減し、堅牢で正確なFCの開発を極めて困難にする。
そこで我々はFed-$k^*$-HCという新しいFCフレームワークを提案する。
k^*$決定のためのグローバルなデータ分布を得るために、各クライアントがマイクロサブクラスタを生成する。
プロトタイプは階層的なマージのためにサーバにアップロードされる。
密度に基づくマージング設計により、異なる大きさと形状のクラスタを探索することができ、プログレッシブマージングプロセスはプロトタイプ間の隣り合う関係に応じて自己決定し、$k^*$を決定することができる。
多様なデータセットに対する大規模な実験は、適切な数のクラスタを正確に探索する際、提案したFed-$k^*$-HCのFC能力を示す。
関連論文リスト
- One-Shot Hierarchical Federated Clustering [51.490181220883905]
本稿では,効率的な階層型クラスタリングフレームワークを提案する。
クライアント-エンドの分散探索とサーバ-エンドの分散アグリゲーションを実行する。
クライアント間の複雑なクラスタ分布を効率的に探索できることが判明した。
論文 参考訳(メタデータ) (2026-01-10T02:58:33Z) - Parameter-Free Clustering via Self-Supervised Consensus Maximization (Extended Version) [50.41628860536753]
本稿では,SCMax と呼ばれる自己教師型コンセンサス最大化による,新しい完全パラメータフリークラスタリングフレームワークを提案する。
本フレームワークは,階層的なクラスタリングとクラスタ評価を単一の統合プロセスで行う。
論文 参考訳(メタデータ) (2025-11-12T11:17:17Z) - A new type of federated clustering: A non-model-sharing approach [6.5347053452025206]
本研究では,データ協調クラスタリング(DC-Clustering)を提案する。
DC-Clusteringは、水平と垂直の分割が共存する複雑なデータパーティショニングシナリオ上のクラスタリングをサポートする。
その結果,本手法は,すべてのデータがプールされている集中クラスタリングに匹敵するクラスタリング性能が得られた。
論文 参考訳(メタデータ) (2025-06-11T23:57:26Z) - Asynchronous Federated Clustering with Unknown Number of Clusters [35.35189341303029]
フェデレートクラスタリング(FC)は、ラベルのない非独立なIdentically Distributed(非IID)データから知識をマイニングするために重要である。
本稿では,非同期クラスタ学習(AFCL)手法を提案する。
過剰な数のシードポイントを学習媒体としてクライアントに分散し、それらをクライアント全体にコーディネートしてコンセンサスを形成する。
論文 参考訳(メタデータ) (2024-12-29T03:56:32Z) - UniForCE: The Unimodality Forest Method for Clustering and Estimation of
the Number of Clusters [2.4953699842881605]
我々は,一様性の概念に着目し,局所的一様性クラスタと呼ばれる柔軟なクラスタ定義を提案する。
局所的ユニモーダルクラスタは、データのサブクラスタのペア間で一様性が局所的に保存される限り、拡張される。
局所的な単調クラスタリングのためのUniForCE法を提案する。
論文 参考訳(メタデータ) (2023-12-18T16:19:02Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。