論文の概要: Secure Federated Clustering
- arxiv url: http://arxiv.org/abs/2205.15564v1
- Date: Tue, 31 May 2022 06:47:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 15:35:43.833379
- Title: Secure Federated Clustering
- Title(参考訳): セキュアなフェデレーションクラスタリング
- Authors: Songze Li, Sizai Hou, Baturalp Buyukates, Salman Avestimehr
- Abstract要約: SecFCはセキュアなフェデレーションクラスタリングアルゴリズムであり、同時にユニバーサルパフォーマンスを実現する。
各クライアントのプライベートデータとクラスタセンターは、他のクライアントやサーバにリークされない。
- 参考スコア(独自算出の注目度): 18.37669220755388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a foundational unsupervised learning task of $k$-means data
clustering, in a federated learning (FL) setting consisting of a central server
and many distributed clients. We develop SecFC, which is a secure federated
clustering algorithm that simultaneously achieves 1) universal performance: no
performance loss compared with clustering over centralized data, regardless of
data distribution across clients; 2) data privacy: each client's private data
and the cluster centers are not leaked to other clients and the server. In
SecFC, the clients perform Lagrange encoding on their local data and share the
coded data in an information-theoretically private manner; then leveraging the
algebraic structure of the coding, the FL network exactly executes the Lloyd's
$k$-means heuristic over the coded data to obtain the final clustering.
Experiment results on synthetic and real datasets demonstrate the universally
superior performance of SecFC for different data distributions across clients,
and its computational practicality for various combinations of system
parameters. Finally, we propose an extension of SecFC to further provide
membership privacy for all data points.
- Abstract(参考訳): 我々は、中央サーバと多くの分散クライアントからなる連合学習(FL)環境で、$k$-meansのデータクラスタリングの基本的な教師なし学習タスクを考える。
我々は,セキュアなフェデレーションクラスタリングアルゴリズムであるsecfcを開発した。
1) ユニバーサルパフォーマンス: クライアント間のデータ分散に関係なく,集中型データに対するクラスタリングと比較してパフォーマンス損失は発生しない。
2) データのプライバシ: 各クライアントのプライベートデータとクラスタセンタは,他のクライアントやサーバにリークされることはない。
secfcでは、クライアントがローカルデータ上でラグランジュ符号化を行い、その符号化データを情報理論的にプライベートに共有し、その後、符号化の代数構造を利用して、flネットワークが符号化データ上でロイドの$k$-meansヒューリスティックを正確に実行し、最終的なクラスタリングを得る。
合成および実データを用いた実験結果は、クライアント間で異なるデータ分布に対するSecFCの普遍的に優れた性能を示し、システムパラメータの様々な組み合わせに対する計算的実用性を示す。
最後に,すべてのデータポイントに対するメンバシッププライバシをさらに提供するためのsecfcの拡張を提案する。
関連論文リスト
- Federated Clustering: An Unsupervised Cluster-Wise Training for Decentralized Data Distributions [1.6385815610837167]
Federated Cluster-Wise Refinement(FedCRef)には、同様のデータ分散を備えたクラスタ上でモデルを協調的にトレーニングするクライアントが含まれている。
これらのグループでは、クライアントは、各データ分布を表す共有モデルを共同でトレーニングし、データの関連性を高めるために、ローカルクラスタを継続的に精錬する。
この反復的処理により,ネットワーク全体にわたる潜在的なデータ分布を同定し,それぞれにロバストな表現モデルを構築することができる。
論文 参考訳(メタデータ) (2024-08-20T09:05:44Z) - Fair Federated Data Clustering through Personalization: Bridging the Gap between Diverse Data Distributions [2.7905216619150344]
フェデレーションクラスタリングにおけるパーソナライズの概念を導入し、より低いクラスタリングコストとクライアント間の均一なコストのバランスを達成することを目的とする。
サーバとクライアント間の1ラウンドの通信でこれらの目標に対処するp-FClusを提案する。
論文 参考訳(メタデータ) (2024-07-05T07:10:26Z) - Dynamically Weighted Federated k-Means [0.0]
フェデレートされたクラスタリングにより、複数のデータソースが協力してデータをクラスタリングし、分散化とプライバシ保護を維持できる。
我々は,ロイドのk-meansクラスタリング法に基づいて,動的に重み付けされたk-means (DWF k-means) という新しいクラスタリングアルゴリズムを提案する。
我々は、クラスタリングスコア、精度、およびv尺度の観点から、アルゴリズムの性能を評価するために、複数のデータセットとデータ分散設定の実験を行う。
論文 参考訳(メタデータ) (2023-10-23T12:28:21Z) - Federated Deep Multi-View Clustering with Global Self-Supervision [51.639891178519136]
フェデレートされたマルチビュークラスタリングは、複数のデバイスに分散したデータからグローバルクラスタリングモデルを学習する可能性がある。
この設定では、ラベル情報は未知であり、データのプライバシを保持する必要がある。
本稿では,複数のクライアントから補完的なクラスタ構造をマイニングできる,新しい多視点クラスタリング手法を提案する。
論文 参考訳(メタデータ) (2023-09-24T17:07:01Z) - Timely Asynchronous Hierarchical Federated Learning: Age of Convergence [59.96266198512243]
クライアント-エッジ-クラウドフレームワークを用いた非同期階層型フェデレーション学習環境について検討する。
クライアントはトレーニングされたパラメータをエッジサーバと交換し、ローカルに集約されたモデルを更新する。
各クライアントの目標は、クライアントのタイムラインを維持しながら、グローバルモデルに収束することだ。
論文 参考訳(メタデータ) (2023-06-21T17:39:16Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - Privacy-Preserving Federated Deep Clustering based on GAN [12.256298398007848]
我々はGAN(Generative Adversarial Networks)に基づくフェデレーションディープクラスタリングへの新しいアプローチを提案する。
各クライアントは、ローカルな生成敵ネットワーク(GAN)をローカルにトレーニングし、合成データをサーバにアップロードする。
サーバは合成データに深いクラスタリングネットワークを適用して$k$のクラスタセントロイドを確立し、クラスタ割り当てのためにクライアントにダウンロードする。
論文 参考訳(メタデータ) (2022-11-30T13:20:11Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - Federated clustering with GAN-based data synthesis [12.256298398007848]
フェデレーションクラスタリング(FC)は、フェデレーション設定における集中クラスタリングの拡張である。
我々は、SDA-FCと呼ばれる新しいフェデレーションクラスタリングフレームワークを提案する。
各クライアントで生成する敵ネットワークをローカルにトレーニングし、生成した合成データをサーバにアップロードし、合成データ上でKMまたはFCMを実行する。
合成データにより、非IID問題に対してモデルが免疫しやすくなり、プライベートデータを共有することなく、より効率的にグローバルな類似性特性を捉えることができる。
論文 参考訳(メタデータ) (2022-10-29T07:42:11Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - On the Convergence of Clustered Federated Learning [57.934295064030636]
統合学習システムでは、例えばモバイルデバイスや組織参加者といったクライアントは通常、個人の好みや行動パターンが異なる。
本稿では,クライアントグループと各クライアントを統一最適化フレームワークで活用する,新しい重み付きクライアントベースクラスタリングFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T02:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。