論文の概要: Federated Geometric Monte Carlo Clustering to Counter Non-IID Datasets
- arxiv url: http://arxiv.org/abs/2204.11017v1
- Date: Sat, 23 Apr 2022 08:23:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 07:40:05.580537
- Title: Federated Geometric Monte Carlo Clustering to Counter Non-IID Datasets
- Title(参考訳): 非iidデータセットに対するフェデレーション幾何モンテカルロクラスタリング
- Authors: Federico Lucchetti, J\'er\'emie Decouchant, Maria Fernandes, Lydia Y.
Chen, Marcus V\"olp
- Abstract要約: フェデレートラーニングにより、クライアントはサイズや規制のために交換できないデータセット上でモデルを協調的にトレーニングすることができる。
従来の研究は、非IIDラベルを中心に、非IIDデータセットのトレーニング精度への影響を緩和しようとした。
我々は,集中サーバが集約可能なクライアントモデルを集約する新しいフレームワークであるFedGMCCを提案する。
- 参考スコア(独自算出の注目度): 5.265938474748481
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning allows clients to collaboratively train models on datasets
that are acquired in different locations and that cannot be exchanged because
of their size or regulations. Such collected data is increasingly
non-independent and non-identically distributed (non-IID), negatively affecting
training accuracy. Previous works tried to mitigate the effects of non-IID
datasets on training accuracy, focusing mainly on non-IID labels, however
practical datasets often also contain non-IID features. To address both non-IID
labels and features, we propose FedGMCC, a novel framework where a central
server aggregates client models that it can cluster together. FedGMCC
clustering relies on a Monte Carlo procedure that samples the output space of
client models, infers their position in the weight space on a loss manifold and
computes their geometric connection via an affine curve parametrization.
FedGMCC aggregates connected models along their path connectivity to produce a
richer global model, incorporating knowledge of all connected client models.
FedGMCC outperforms FedAvg and FedProx in terms of convergence rates on the
EMNIST62 and a genomic sequence classification datasets (by up to +63%).
FedGMCC yields an improved accuracy (+4%) on the genomic dataset with respect
to CFL, in high non-IID feature space settings and label incongruency.
- Abstract(参考訳): フェデレーション学習は、異なる場所で取得され、サイズや規則のために交換できないデータセット上で、クライアントが協調的にモデルをトレーニングすることを可能にする。
このような収集データはますます非独立的かつ非識別的に分散され(非iid)、トレーニング精度に悪影響を及ぼす。
これまでの研究では、非IIDデータセットがトレーニング精度に与える影響を軽減しようと試みていたが、実際的なデータセットは非IIDの特徴も含んでいた。
非IIDラベルと機能の両方に対処するため、中央サーバが集約可能なクライアントモデルを集約する新しいフレームワークであるFedGMCCを提案する。
FedGMCCクラスタリングは、クライアントモデルの出力空間をサンプリングし、損失多様体上の重み空間におけるそれらの位置を推測し、アフィン曲線のパラメトリゼーションを通じて幾何学的接続を計算するモンテカルロ法に依存している。
fedgmccは接続されたモデルをパス接続に沿って集約し、よりリッチなグローバルモデルを作り、すべての接続されたクライアントモデルの知識を取り入れます。
FedGMCCはEMNIST62とゲノム配列分類データセット(+63%)の収束率でFedAvgとFedProxを上回っている。
FedGMCCは、高い非IID特徴空間設定とラベルの不整合において、CFLに対するゲノムデータセットの精度(+4%)が向上する。
関連論文リスト
- Learning Unlabeled Clients Divergence for Federated Semi-Supervised Learning via Anchor Model Aggregation [10.282711631100845]
SemiAnAggはアンカーモデルを通じて未ラベルのクライアントコントリビューションを学習する。
SemiAnAggは4つの広く使用されているFedSemiベンチマークにおいて、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2024-07-14T20:50:40Z) - FedClust: Tackling Data Heterogeneity in Federated Learning through Weight-Driven Client Clustering [26.478852701376294]
フェデレートラーニング(Federated Learning, FL)は、分散機械学習のパラダイムである。
FLの主な課題の1つは、クライアントデバイスにまたがる不均一なデータ分散の存在である。
我々は,局所モデル重みとクライアントのデータ分布の相関を利用したCFLの新しい手法であるFedClustを提案する。
論文 参考訳(メタデータ) (2024-07-09T02:47:16Z) - Federated Contrastive Learning for Personalized Semantic Communication [55.46383524190467]
我々は,パーソナライズされたセマンティックコミュニケーションを支援することを目的とした,協調型コントラスト学習フレームワークを設計する。
FedCLは、複数のクライアントにわたるローカルセマンティックエンコーダと、基地局が所有するグローバルセマンティックデコーダの協調トレーニングを可能にする。
分散クライアント間の異種データセットから生じるセマンティック不均衡問題に対処するために,コントラスト学習を用いてセマンティックセントロイドジェネレータを訓練する。
論文 参考訳(メタデータ) (2024-06-13T14:45:35Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Joint Local Relational Augmentation and Global Nash Equilibrium for
Federated Learning with Non-IID Data [36.426794300280854]
フェデレーテッド・ラーニング(FL)は分散機械学習のパラダイムであり、サーバーと一連のクライアントの協力を必要とする。
本稿では,局所的リレーショナル拡張(LRA)と大域的ナッシュ均衡(GNE)の2つの主要モジュールからなるFedRANEを提案する。
論文 参考訳(メタデータ) (2023-08-17T06:17:51Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - CADIS: Handling Cluster-skewed Non-IID Data in Federated Learning with
Clustered Aggregation and Knowledge DIStilled Regularization [3.3711670942444014]
フェデレーション学習は、エッジデバイスがデータを公開することなく、グローバルモデルを協調的にトレーニングすることを可能にする。
我々は、実際のデータセットで発見されたクラスタスキュード非IIDと呼ばれる新しいタイプの非IIDデータに取り組む。
本稿では,クラスタ間の平等を保証するアグリゲーション方式を提案する。
論文 参考訳(メタデータ) (2023-02-21T02:53:37Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - FedDRL: Deep Reinforcement Learning-based Adaptive Aggregation for
Non-IID Data in Federated Learning [4.02923738318937]
異なるエッジデバイス(クライアント)にまたがるローカルデータの不均一な分散は、フェデレート学習における遅いモデルトレーニングと精度の低下をもたらす。
この研究は、実世界のデータセット、すなわちクラスタスキューで発生する新しい非IID型を導入している。
我々は,各クライアントのインパクト要因を適応的に決定するために,深層強化学習を用いた新しいFLモデルであるFedDRLを提案する。
論文 参考訳(メタデータ) (2022-08-04T04:24:16Z) - FedDC: Federated Learning with Non-IID Data via Local Drift Decoupling
and Correction [48.85303253333453]
フェデレートラーニング(FL)は、複数のクライアントがプライベートデータを共有せずに、高性能なグローバルモデルを集合的にトレーニングすることを可能にする。
局所的ドリフトデカップリングと補正(FedDC)を用いた新しいフェデレーション学習アルゴリズムを提案する。
私たちのFedDCでは、ローカルモデルパラメータとグローバルモデルパラメータのギャップを追跡するために、各クライアントが補助的なローカルドリフト変数を使用するような、ローカルトレーニングフェーズにおける軽量な修正のみを導入しています。
実験結果と解析結果から,FedDCは様々な画像分類タスクにおいて,収差の迅速化と性能の向上を図っている。
論文 参考訳(メタデータ) (2022-03-22T14:06:26Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。