論文の概要: Federated Learning under Partially Class-Disjoint Data via Manifold Reshaping
- arxiv url: http://arxiv.org/abs/2405.18983v2
- Date: Mon, 3 Jun 2024 11:16:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-04 13:50:03.105814
- Title: Federated Learning under Partially Class-Disjoint Data via Manifold Reshaping
- Title(参考訳): マニフォールド変換による部分的クラス分割データに基づくフェデレーション学習
- Authors: Ziqing Fan, Jiangchao Yao, Ruipeng Zhang, Lingjuan Lyu, Ya Zhang, Yanfeng Wang,
- Abstract要約: 我々はFedMRと呼ばれる多様体再構成手法を提案し、局所訓練の特徴空間を校正する。
我々は、FedMRがはるかに高い精度と通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行います。
- 参考スコア(独自算出の注目度): 64.58402571292723
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Statistical heterogeneity severely limits the performance of federated learning (FL), motivating several explorations e.g., FedProx, MOON and FedDyn, to alleviate this problem. Despite effectiveness, their considered scenario generally requires samples from almost all classes during the local training of each client, although some covariate shifts may exist among clients. In fact, the natural case of partially class-disjoint data (PCDD), where each client contributes a few classes (instead of all classes) of samples, is practical yet underexplored. Specifically, the unique collapse and invasion characteristics of PCDD can induce the biased optimization direction in local training, which prevents the efficiency of federated learning. To address this dilemma, we propose a manifold reshaping approach called FedMR to calibrate the feature space of local training. Our FedMR adds two interplaying losses to the vanilla federated learning: one is intra-class loss to decorrelate feature dimensions for anti-collapse; and the other one is inter-class loss to guarantee the proper margin among categories in the feature expansion. We conduct extensive experiments on a range of datasets to demonstrate that our FedMR achieves much higher accuracy and better communication efficiency. Source code is available at: https://github.com/MediaBrain-SJTU/FedMR.git.
- Abstract(参考訳): 統計的不均一性は、フェデレートラーニング(FL)の性能を著しく制限し、この問題を軽減するために、例えば、FedProx、MOON、FedDynといったいくつかの探索を動機付けている。
有効性にもかかわらず、それらのシナリオは一般的に、各クライアントのローカルトレーニング中に、ほとんどすべてのクラスからサンプルを必要とする。
実際、各クライアントがサンプルのいくつかのクラス(すべてのクラスの代わりに)をコントリビュートするPCDD(Partial class-disjoint data)の自然なケースは、実用的だが未解明である。
特に,PCDDの独自の崩壊・侵入特性は,局所学習において偏りのある最適化方向を誘導し,フェデレート学習の効率を損なう。
このジレンマに対処するため,FedMRと呼ばれる多様体再構成手法を提案し,局所学習の特徴空間を校正する。
我々のFedMRは2つの相互作用損失をバニラフェデレート学習に追加し、一方はクラス内損失であり、他方はクラス間損失であり、特徴拡張におけるカテゴリ間の適切なマージンを保証する。
我々は、FedMRがはるかに高い精度と通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行います。
ソースコードはhttps://github.com/MediaBrain-SJTU/FedMR.git.comで入手できる。
関連論文リスト
- Federated Learning with Bilateral Curation for Partially Class-Disjoint Data [47.55180390473258]
部分的なクラス分離データ(PCDD)は、一般的なが未探索のデータ生成であり、フェデレートされたアルゴリズムの性能に深刻な挑戦をする。
我々はFedGELAと呼ばれる新しい手法を提案し、ETFは局所的に個人分布に適応しながら、単純なETFとしてグローバルに固定されている。
我々は、FedGELAが有望なパフォーマンスを達成することを示すために、さまざまなデータセットに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-05-29T10:34:44Z) - FedIN: Federated Intermediate Layers Learning for Model Heterogeneity [7.781409257429762]
フェデレートラーニング(FL)は、エッジデバイスがローカルおよびプライベートにトレーニングデータを維持しながら、グローバルな共有モデルを協調的にトレーニングすることを促進する。
本研究では,FedIN(Federated Intermediate Layers Learning)と呼ばれるFL手法を提案する。
実験結果から, 異種モデル環境におけるFedINの性能は, 最先端のアルゴリズムと比較して優れていた。
論文 参考訳(メタデータ) (2023-04-03T07:20:43Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FedABC: Targeting Fair Competition in Personalized Federated Learning [76.9646903596757]
フェデレートラーニングは、クライアントのローカルプライベートデータにアクセスすることなく、モデルを協調的にトレーニングすることを目的としている。
我々はFedABCと呼ばれるバイナリ分類によるFederated Averagingと呼ばれる新規で汎用的なPFLフレームワークを提案する。
特に、各クライアントに1対1のトレーニング戦略を採用して、クラス間の不公平な競争を軽減する。
論文 参考訳(メタデータ) (2023-02-15T03:42:59Z) - FedDRL: Deep Reinforcement Learning-based Adaptive Aggregation for
Non-IID Data in Federated Learning [4.02923738318937]
異なるエッジデバイス(クライアント)にまたがるローカルデータの不均一な分散は、フェデレート学習における遅いモデルトレーニングと精度の低下をもたらす。
この研究は、実世界のデータセット、すなわちクラスタスキューで発生する新しい非IID型を導入している。
我々は,各クライアントのインパクト要因を適応的に決定するために,深層強化学習を用いた新しいFLモデルであるFedDRLを提案する。
論文 参考訳(メタデータ) (2022-08-04T04:24:16Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Robustness and Personalization in Federated Learning: A Unified Approach
via Regularization [4.7234844467506605]
我々は、Fed+と呼ばれる堅牢でパーソナライズされたフェデレーション学習のための一連の方法を提案する。
Fed+の主な利点は、フェデレートトレーニングで見られる現実世界の特徴をよりよく適応することである。
ベンチマークデータセットに関する広範な実験を通じて、Fed+の利点を実証する。
論文 参考訳(メタデータ) (2020-09-14T10:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。