論文の概要: One-Shot Federated Learning for Model Clustering and Learning in
Heterogeneous Environments
- arxiv url: http://arxiv.org/abs/2209.10866v1
- Date: Thu, 22 Sep 2022 09:04:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 13:51:00.316724
- Title: One-Shot Federated Learning for Model Clustering and Learning in
Heterogeneous Environments
- Title(参考訳): ヘテロジニアス環境におけるモデルクラスタリングと学習のためのワンショットフェデレート学習
- Authors: Aleksandar Armacki, Dragana Bajovic, Dusan Jakovetic, Soummya Kar
- Abstract要約: 異種環境におけるフェデレーション学習のためのコミュニケーション効率の良い手法を提案する。
提案手法は,ユーザとサーバ間の通信ラウンドを1回だけ必要とし,通信コストを大幅に削減する。
- 参考スコア(独自算出の注目度): 72.15857783681658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a communication efficient approach for federated learning in
heterogeneous environments. The system heterogeneity is reflected in the
presence of $K$ different data distributions, with each user sampling data from
only one of $K$ distributions. The proposed approach requires only one
communication round between the users and server, thus significantly reducing
the communication cost. Moreover, the proposed method provides strong learning
guarantees in heterogeneous environments, by achieving the optimal mean-squared
error (MSE) rates in terms of the sample size, i.e., matching the MSE
guarantees achieved by learning on all data points belonging to users with the
same data distribution, provided that the number of data points per user is
above a threshold that we explicitly characterize in terms of system
parameters. Remarkably, this is achieved without requiring any knowledge of the
underlying distributions, or even the true number of distributions $K$.
Numerical experiments illustrate our findings and underline the performance of
the proposed method.
- Abstract(参考訳): 異種環境におけるフェデレーション学習のためのコミュニケーション効率の良い手法を提案する。
システムの不均一性は、K$の異なるデータ分散の存在によって反映され、各ユーザは、K$の分布のうちの1つからデータをサンプリングする。
提案手法は,ユーザとサーバ間の通信ラウンドを1回だけ必要とし,通信コストを大幅に削減する。
さらに,提案手法は,サンプルサイズ,すなわち,同一データ分布を持つユーザに属するすべてのデータポイントを学習することによって達成されるmse保証と一致する最適な平均二乗誤差(mse)率を達成することにより,異種環境における強力な学習保証を提供する。
注目すべきは、これは基礎となる分布や真の分布数さえも必要とせずに達成されることである。
数値実験により,提案手法の性能について考察した。
関連論文リスト
- Deep Embedding Clustering Driven by Sample Stability [16.53706617383543]
サンプル安定性(DECS)により駆動されるディープ埋め込みクラスタリングアルゴリズムを提案する。
具体的には、まずオートエンコーダで初期特徴空間を構築し、次にサンプル安定性に制約されたクラスタ指向の埋め込み機能を学ぶ。
5つのデータセットに対する実験結果から,提案手法は最先端のクラスタリング手法と比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-01-29T09:19:49Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - A parallelizable model-based approach for marginal and multivariate
clustering [0.0]
本稿では,モデルに基づくクラスタリングの頑健さを生かしたクラスタリング手法を提案する。
我々は、各マージンごとに異なる数のクラスタを持つことができる有限混合モデルを指定することで、この問題に対処する。
提案手法は、完全な(結合した)モデルベースのクラスタリング手法よりも、中程度から高次元の処理に適するだけでなく、計算的にも魅力的である。
論文 参考訳(メタデータ) (2022-12-07T23:54:41Z) - clusterBMA: Bayesian model averaging for clustering [1.2021605201770345]
本稿では、教師なしクラスタリングアルゴリズムの結果の重み付きモデル平均化を可能にするクラスタBMAを提案する。
クラスタリング内部検証基準を用いて、各モデルの結果の重み付けに使用される後続モデル確率の近似を開発する。
シミュレーションデータ上での他のアンサンブルクラスタリングメソッドのパフォーマンスに加えて、クラスタBMAは平均クラスタへの確率的アロケーションを含むユニークな機能を提供する。
論文 参考訳(メタデータ) (2022-09-09T04:55:20Z) - Gradient Based Clustering [72.15857783681658]
本稿では,クラスタリングの品質を計測するコスト関数の勾配を用いて,距離に基づくクラスタリングの一般的な手法を提案する。
アプローチは反復的な2段階の手順(クラスタ割り当てとクラスタセンターのアップデートの代替)であり、幅広い機能に適用できる。
論文 参考訳(メタデータ) (2022-02-01T19:31:15Z) - Personalized Federated Learning via Convex Clustering [72.15857783681658]
本稿では,局所凸型ユーザコストを用いた個人化フェデレーション学習のためのアルゴリズム群を提案する。
提案するフレームワークは,異なるユーザのモデルの違いをペナル化する凸クラスタリングの一般化に基づいている。
論文 参考訳(メタデータ) (2022-02-01T19:25:31Z) - Robust Trimmed k-means [70.88503833248159]
本稿では,外乱点とクラスタポイントを同時に識別するRobust Trimmed k-means (RTKM)を提案する。
RTKMは他の方法と競合することを示す。
論文 参考訳(メタデータ) (2021-08-16T15:49:40Z) - Neural Mixture Models with Expectation-Maximization for End-to-end Deep
Clustering [0.8543753708890495]
本稿では,ニューラルネットワークを用いた混合モデルに基づくクラスタリングを実現する。
我々は,Eステップとして前方パス,Mステップとして後方パスを動作させるバッチワイズEMイテレーションにより,ネットワークのエンドツーエンドをトレーニングする。
トレーニングされたネットワークは、k-meansに依存した単一ステージのディープクラスタリング手法よりも優れています。
論文 参考訳(メタデータ) (2021-07-06T08:00:58Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - A New Validity Index for Fuzzy-Possibilistic C-Means Clustering [6.174448419090291]
Fuzzy-Possibilistic (FP)指数は、形状や密度の異なるクラスターの存在下でうまく機能する。
FPCMはファジィの度合いと典型性の度合いを事前選択する必要がある。
論文 参考訳(メタデータ) (2020-05-19T01:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。