論文の概要: Federated Deep Subspace Clustering
- arxiv url: http://arxiv.org/abs/2501.00230v2
- Date: Thu, 16 Jan 2025 02:28:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-17 15:08:26.263618
- Title: Federated Deep Subspace Clustering
- Title(参考訳): Federated Deep Subspace Clustering
- Authors: Yupei Zhang, Ruojia Feng, Yifei Wang, Xuequn Shang,
- Abstract要約: 本稿では,フェデレートラーニング(FC)スキーマを用いたプライベートプロテクトサブスペースクラスタリング(SC)アプローチであるFDSCを紹介する。
各クライアントには、エンコードネットワーク、自己表現層、デコードネットワークからなる孤立したデータをグループ化するためのディープサブスペースクラスタリングネットワークが存在する。
実験は、公開データセット上でFDSCをテストし、他のクラスタリング手法と比較し、FDSCの有効性を実証する。
- 参考スコア(独自算出の注目度): 14.279959858427778
- License:
- Abstract: This paper introduces FDSC, a private-protected subspace clustering (SC) approach with federated learning (FC) schema. In each client, there is a deep subspace clustering network accounting for grouping the isolated data, composed of a encode network, a self-expressive layer, and a decode network. FDSC is achieved by uploading the encode network to communicate with other clients in the server. Besides, FDSC is also enhanced by preserving the local neighborhood relationship in each client. With the effects of federated learning and locality preservation, the learned data features from the encoder are boosted so as to enhance the self-expressiveness learning and result in better clustering performance. Experiments test FDSC on public datasets and compare with other clustering methods, demonstrating the effectiveness of FDSC.
- Abstract(参考訳): 本稿では,フェデレートラーニング(FC)スキーマを用いたプライベートプロテクトサブスペースクラスタリング(SC)アプローチであるFDSCを紹介する。
各クライアントには、エンコードネットワーク、自己表現層、デコードネットワークからなる孤立したデータをグループ化するためのディープサブスペースクラスタリングネットワークが存在する。
FDSCは、サーバ内の他のクライアントと通信するためにエンコードネットワークをアップロードすることで実現される。
さらに、FDSCは各クライアントのローカルな近傍関係を保存することで強化される。
フェデレーション学習と局所性保存の効果により、エンコーダから学習したデータ特徴が向上し、自己表現学習が向上し、クラスタリング性能が向上する。
実験は、公開データセット上でFDSCをテストし、他のクラスタリング手法と比較し、FDSCの有効性を実証する。
関連論文リスト
- Decoupled Subgraph Federated Learning [57.588938805581044]
複数のクライアントに分散したグラフ構造化データに対するフェデレーション学習の課題に対処する。
我々は、このシナリオのための新しいフレームワーク、FedStructを紹介します。
半教師付きノード分類のための6つのデータセットを用いて実験結果を用いてFedStructの有効性を検証する。
論文 参考訳(メタデータ) (2024-02-29T13:47:23Z) - CCFC: Bridging Federated Clustering and Contrastive Learning [9.91610928326645]
本稿では,クラスタコントラスト・フェデレーション・クラスタリング(CCFC)という新しいフェデレーション・クラスタリング手法を提案する。
CCFCは、実用的な観点から、デバイス障害を扱う上で優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-12T15:26:44Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - Privacy-Preserving Federated Deep Clustering based on GAN [12.256298398007848]
我々はGAN(Generative Adversarial Networks)に基づくフェデレーションディープクラスタリングへの新しいアプローチを提案する。
各クライアントは、ローカルな生成敵ネットワーク(GAN)をローカルにトレーニングし、合成データをサーバにアップロードする。
サーバは合成データに深いクラスタリングネットワークを適用して$k$のクラスタセントロイドを確立し、クラスタ割り当てのためにクライアントにダウンロードする。
論文 参考訳(メタデータ) (2022-11-30T13:20:11Z) - Federated clustering with GAN-based data synthesis [12.256298398007848]
フェデレーションクラスタリング(FC)は、フェデレーション設定における集中クラスタリングの拡張である。
我々は、SDA-FCと呼ばれる新しいフェデレーションクラスタリングフレームワークを提案する。
各クライアントで生成する敵ネットワークをローカルにトレーニングし、生成した合成データをサーバにアップロードし、合成データ上でKMまたはFCMを実行する。
合成データにより、非IID問題に対してモデルが免疫しやすくなり、プライベートデータを共有することなく、より効率的にグローバルな類似性特性を捉えることができる。
論文 参考訳(メタデータ) (2022-10-29T07:42:11Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - Secure Federated Clustering [18.37669220755388]
SecFCはセキュアなフェデレーションクラスタリングアルゴリズムであり、同時にユニバーサルパフォーマンスを実現する。
各クライアントのプライベートデータとクラスタセンターは、他のクライアントやサーバにリークされない。
論文 参考訳(メタデータ) (2022-05-31T06:47:18Z) - On the Convergence of Clustered Federated Learning [57.934295064030636]
統合学習システムでは、例えばモバイルデバイスや組織参加者といったクライアントは通常、個人の好みや行動パターンが異なる。
本稿では,クライアントグループと各クライアントを統一最適化フレームワークで活用する,新しい重み付きクライアントベースクラスタリングFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T02:39:19Z) - Two-Bit Aggregation for Communication Efficient and Differentially
Private Federated Learning [79.66767935077925]
フェデレートラーニング(FL)では、機械学習モデルは、データをローカルに保ち、他のノードと共有しない状態で、複数のノードで分散的にトレーニングされる。
ノードからサーバに送信された情報は、各ノードのローカルデータの詳細を明らかにする可能性があるため、プライバシー上の懸念が生じる。
差分プライバシーを保証し、アップリンク通信オーバーヘッドを低減した2ビットアグリゲーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-06T19:03:58Z) - Overcomplete Deep Subspace Clustering Networks [80.16644725886968]
4つのベンチマークデータセットの実験結果から,クラスタリング誤差の観点から,DSCや他のクラスタリング手法に対する提案手法の有効性が示された。
また,本手法は,最高の性能を得るために事前学習を中止する点にDSCほど依存せず,騒音にも頑健である。
論文 参考訳(メタデータ) (2020-11-16T22:07:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。