論文の概要: Federated clustering with GAN-based data synthesis
- arxiv url: http://arxiv.org/abs/2210.16524v1
- Date: Sat, 29 Oct 2022 07:42:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 18:01:51.091722
- Title: Federated clustering with GAN-based data synthesis
- Title(参考訳): GANに基づくデータ合成によるフェデレーションクラスタリング
- Authors: Jie Yan, Jing Liu, Ji Qi and Zhong-Yuan Zhang
- Abstract要約: Federated Clusteringは、すべてのデータをローカルに保ちながら、グローバルな類似度尺度に基づいてデータをクラスタすることを目的としている。
本稿では,GANに基づくデータ合成を用いた,シンプルだが効果的なフェデレーションクラスタリングフレームワークを提案する。
k-FEDとFFCMを効率性と堅牢性で上回り、通信ラウンドを1回だけ必要とし、非同期で実行でき、デバイス障害を処理することができる。
- 参考スコア(独自算出の注目度): 10.148338270404846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated clustering is an adaptation of centralized clustering in the
federated settings, which aims to cluster data based on a global similarity
measure while keeping all data local. The key here is how to construct a global
similarity measure without sharing private data. To handle this, k-FED and
federated fuzzy c-means (FFCM) respectively adapted K-means and fuzzy c-means
to the federated learning settings, which aim to construct $K$ global cluster
centroids by running K-means on a set of all local cluster centroids. However,
the constructed global cluster centroids may be fragile and be sensitive to
different non-independent and identically distributed (Non-IID) levels among
clients. To handle this, we propose a simple but effective federated clustering
framework with GAN-based data synthesis, which is called synthetic data aided
federated clustering (SDA-FC). It outperforms k-FED and FFCM in terms of
effectiveness and robustness, requires only one communication round, can run
asynchronously, and can handle device failures. Moreover, although NMI is a far
more commonly used metric than Kappa, empirical results indicate that Kappa is
a more reliable one.
- Abstract(参考訳): フェデレーションクラスタリング(Federated clustering)は、すべてのデータをローカルに保ちながら、グローバルな類似度尺度に基づいてデータをクラスタ化するフェデレーションクラスタリングの適応である。
ここで重要なのは、プライベートデータを共有せずにグローバルな類似度尺度を構築する方法だ。
これに対応するために、k-FEDとFFCMは、K-meansとfuzzy c-meansをそれぞれフェデレート学習環境に適応させ、K-meansをすべての局所クラスタセントロイドの集合上で実行することで、K$グローバルクラスタセントロイドを構築することを目的とした。
しかし、構築されたグローバルクラスタセンタロイドは脆弱であり、クライアント間で異なる非独立かつ同一の分散(非iid)レベルに敏感である。
そこで本研究では,GANをベースとしたデータ合成を,合成データ支援フェデレーションクラスタリング(SDA-FC)と呼ぶ簡易かつ効果的なフェデレーションクラスタリングフレームワークを提案する。
k-FEDとFFCMを効率性と堅牢性で上回り、通信ラウンドを1回だけ必要とし、非同期で実行でき、デバイス障害を処理することができる。
さらに、nmiはkappaよりもはるかに一般的なメトリクスであるが、実証的な結果はkappaの方が信頼性が高いことを示している。
関連論文リスト
- PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - CADIS: Handling Cluster-skewed Non-IID Data in Federated Learning with
Clustered Aggregation and Knowledge DIStilled Regularization [3.3711670942444014]
フェデレーション学習は、エッジデバイスがデータを公開することなく、グローバルモデルを協調的にトレーニングすることを可能にする。
我々は、実際のデータセットで発見されたクラスタスキュード非IIDと呼ばれる新しいタイプの非IIDデータに取り組む。
本稿では,クラスタ間の平等を保証するアグリゲーション方式を提案する。
論文 参考訳(メタデータ) (2023-02-21T02:53:37Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - Privacy-Preserving Federated Deep Clustering based on GAN [12.256298398007848]
我々はGAN(Generative Adversarial Networks)に基づくフェデレーションディープクラスタリングへの新しいアプローチを提案する。
各クライアントは、ローカルな生成敵ネットワーク(GAN)をローカルにトレーニングし、合成データをサーバにアップロードする。
サーバは合成データに深いクラスタリングネットワークを適用して$k$のクラスタセントロイドを確立し、クラスタ割り当てのためにクライアントにダウンロードする。
論文 参考訳(メタデータ) (2022-11-30T13:20:11Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - Federated Learning with GAN-based Data Synthesis for Non-IID Clients [8.304185807036783]
フェデレートラーニング(FL)は、最近、プライバシ保護のためのコラボレーティブラーニングパラダイムとして人気を博している。
我々は,合成データを共有することで,この非IID課題を解決するために,SDA-FL(Synthetic Data Aided Federated Learning)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-11T11:43:25Z) - Secure Federated Clustering [18.37669220755388]
SecFCはセキュアなフェデレーションクラスタリングアルゴリズムであり、同時にユニバーサルパフォーマンスを実現する。
各クライアントのプライベートデータとクラスタセンターは、他のクライアントやサーバにリークされない。
論文 参考訳(メタデータ) (2022-05-31T06:47:18Z) - Heterogeneous Federated Learning via Grouped Sequential-to-Parallel
Training [60.892342868936865]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーション機械学習パラダイムである。
本稿では,この課題に対処するため,データヘテロジニアス・ロバストFLアプローチであるFedGSPを提案する。
その結果,FedGSPは7つの最先端アプローチと比較して平均3.7%の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-01-31T03:15:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。