論文の概要: A new type of federated clustering: A non-model-sharing approach
- arxiv url: http://arxiv.org/abs/2506.10244v1
- Date: Wed, 11 Jun 2025 23:57:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.497442
- Title: A new type of federated clustering: A non-model-sharing approach
- Title(参考訳): 新しいタイプのフェデレーションクラスタリング:非モデル共有アプローチ
- Authors: Yuji Kawamata, Kaoru Kamijo, Maki Kihira, Akihiro Toyoda, Tomoru Nakayama, Akira Imakura, Tetsuya Sakurai, Yukihiko Okada,
- Abstract要約: 本研究では,データ協調クラスタリング(DC-Clustering)を提案する。
DC-Clusteringは、水平と垂直の分割が共存する複雑なデータパーティショニングシナリオ上のクラスタリングをサポートする。
その結果,本手法は,すべてのデータがプールされている集中クラスタリングに匹敵するクラスタリング性能が得られた。
- 参考スコア(独自算出の注目度): 5.857143731068618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, the growing need to leverage sensitive data across institutions has led to increased attention on federated learning (FL), a decentralized machine learning paradigm that enables model training without sharing raw data. However, existing FL-based clustering methods, known as federated clustering, typically assume simple data partitioning scenarios such as horizontal or vertical splits, and cannot handle more complex distributed structures. This study proposes data collaboration clustering (DC-Clustering), a novel federated clustering method that supports clustering over complex data partitioning scenarios where horizontal and vertical splits coexist. In DC-Clustering, each institution shares only intermediate representations instead of raw data, ensuring privacy preservation while enabling collaborative clustering. The method allows flexible selection between k-means and spectral clustering, and achieves final results with a single round of communication with the central server. We conducted extensive experiments using synthetic and open benchmark datasets. The results show that our method achieves clustering performance comparable to centralized clustering where all data are pooled. DC-Clustering addresses an important gap in current FL research by enabling effective knowledge discovery from distributed heterogeneous data. Its practical properties -- privacy preservation, communication efficiency, and flexibility -- make it a promising tool for privacy-sensitive domains such as healthcare and finance.
- Abstract(参考訳): 近年、機関間で機密データを活用する必要性が高まっており、生データを共有せずにモデルトレーニングを可能にする分散型機械学習パラダイムであるフェデレートラーニング(FL)に注目が集まっている。
しかしながら、連邦クラスタリングとして知られる既存のFLベースのクラスタリング手法は、一般的に水平または垂直分割のような単純なデータ分割シナリオを前提としており、より複雑な分散構造を扱えない。
本研究では,水平分割と垂直分割が共存する複雑なデータ分割シナリオ上でのクラスタリングを支援する,新しいフェデレーションクラスタリング手法であるDC-Clusteringを提案する。
DCクラスタリングでは、各機関は生データの代わりに中間表現のみを共有し、協調的なクラスタリングを可能にしながらプライバシ保護を保証する。
この手法は,k平均とスペクトルクラスタリングの柔軟な選択を可能にし,中央サーバとの1ラウンドの通信で最終結果を得る。
人工的およびオープンなベンチマークデータセットを用いて広範な実験を行った。
その結果,本手法は,すべてのデータがプールされている集中クラスタリングに匹敵するクラスタリング性能が得られた。
DC-Clusteringは、分散異種データから効果的な知識発見を可能にすることで、現在のFL研究において重要なギャップに対処する。
プライバシー保護、通信効率、柔軟性といった実用性は、医療や金融といったプライバシーに敏感なドメインにとって有望なツールとなる。
関連論文リスト
- CCFC: Bridging Federated Clustering and Contrastive Learning [8.822947930471429]
本稿では,クラスタコントラスト・フェデレーション・クラスタリング(CCFC)という新しいフェデレーション・クラスタリング手法を提案する。
CCFCは、実用的な観点から、デバイス障害を扱う上で優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-12T15:26:44Z) - End-to-end Learnable Clustering for Intent Learning in Recommendation [54.157784572994316]
我々は、アンダーラインELCRecと呼ばれる新しい意図学習手法を提案する。
振る舞い表現学習をUnderlineEnd-to-end UnderlineLearnable UnderlineClusteringフレームワークに統合する。
1億3000万ページビューの産業レコメンデーションシステムに本手法をデプロイし,有望な結果を得る。
論文 参考訳(メタデータ) (2024-01-11T15:22:55Z) - Dynamically Weighted Federated k-Means [0.0]
フェデレートされたクラスタリングにより、複数のデータソースが協力してデータをクラスタリングし、分散化とプライバシ保護を維持できる。
我々は,ロイドのk-meansクラスタリング法に基づいて,動的に重み付けされたk-means (DWF k-means) という新しいクラスタリングアルゴリズムを提案する。
我々は、クラスタリングスコア、精度、およびv尺度の観点から、アルゴリズムの性能を評価するために、複数のデータセットとデータ分散設定の実験を行う。
論文 参考訳(メタデータ) (2023-10-23T12:28:21Z) - Privacy-Preserving Federated Deep Clustering based on GAN [12.256298398007848]
我々はGAN(Generative Adversarial Networks)に基づくフェデレーションディープクラスタリングへの新しいアプローチを提案する。
各クライアントは、ローカルな生成敵ネットワーク(GAN)をローカルにトレーニングし、合成データをサーバにアップロードする。
サーバは合成データに深いクラスタリングネットワークを適用して$k$のクラスタセントロイドを確立し、クラスタ割り当てのためにクライアントにダウンロードする。
論文 参考訳(メタデータ) (2022-11-30T13:20:11Z) - Deep Clustering: A Comprehensive Survey [53.387957674512585]
クラスタリング分析は、機械学習とデータマイニングにおいて必須の役割を果たす。
ディープ・クラスタリングは、ディープ・ニューラルネットワークを使ってクラスタリングフレンドリーな表現を学習することができるが、幅広いクラスタリングタスクに広く適用されている。
ディープクラスタリングに関する既存の調査は、主にシングルビューフィールドとネットワークアーキテクチャに焦点を当てており、クラスタリングの複雑なアプリケーションシナリオを無視している。
論文 参考訳(メタデータ) (2022-10-09T02:31:32Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - Differentially-Private Clustering of Easy Instances [67.04951703461657]
異なるプライベートクラスタリングでは、個々のデータポイントに関する情報を公開せずに、$k$のクラスタセンターを特定することが目標だ。
我々は、データが"簡単"である場合にユーティリティを提供する実装可能な差分プライベートクラスタリングアルゴリズムを提供する。
我々は、非プライベートクラスタリングアルゴリズムを簡単なインスタンスに適用し、結果をプライベートに組み合わせることのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-29T08:13:56Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - LSD-C: Linearly Separable Deep Clusters [145.89790963544314]
ラベルなしデータセットのクラスタを識別する新しい手法であるLSD-Cを提案する。
本手法は,最近の半教師付き学習の実践からインスピレーションを得て,クラスタリングアルゴリズムと自己教師付き事前学習と強力なデータ拡張を組み合わせることを提案する。
CIFAR 10/100, STL 10, MNIST, および文書分類データセットReuters 10Kなど, 一般的な公開画像ベンチマークにおいて, 当社のアプローチが競合より大幅に優れていたことを示す。
論文 参考訳(メタデータ) (2020-06-17T17:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。