論文の概要: Virtual Homogeneity Learning: Defending against Data Heterogeneity in
Federated Learning
- arxiv url: http://arxiv.org/abs/2206.02465v1
- Date: Mon, 6 Jun 2022 10:02:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 15:28:33.247994
- Title: Virtual Homogeneity Learning: Defending against Data Heterogeneity in
Federated Learning
- Title(参考訳): 仮想均一学習:フェデレートラーニングにおけるデータ不均一性に対する防御
- Authors: Zhenheng Tang, Yonggang Zhang, Shaohuai Shi, Xin He, Bo Han, Xiaowen
Chu
- Abstract要約: 本稿では,VHL(Virtual homogeneity Learning)と呼ばれる新しい手法を提案する。
VHLは2つの条件を満たすために作られた仮想同質データセットで連合学習を行う。
実験により, VHLは, 収束速度と一般化性能を大幅に向上したフェデレーション学習を実現することを実証した。
- 参考スコア(独自算出の注目度): 34.97057620481504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In federated learning (FL), model performance typically suffers from client
drift induced by data heterogeneity, and mainstream works focus on correcting
client drift. We propose a different approach named virtual homogeneity
learning (VHL) to directly "rectify" the data heterogeneity. In particular, VHL
conducts FL with a virtual homogeneous dataset crafted to satisfy two
conditions: containing no private information and being separable. The virtual
dataset can be generated from pure noise shared across clients, aiming to
calibrate the features from the heterogeneous clients. Theoretically, we prove
that VHL can achieve provable generalization performance on the natural
distribution. Empirically, we demonstrate that VHL endows FL with drastically
improved convergence speed and generalization performance. VHL is the first
attempt towards using a virtual dataset to address data heterogeneity, offering
new and effective means to FL.
- Abstract(参考訳): フェデレートラーニング(FL)では、モデルの性能はデータの不均一性によって引き起こされるクライアントのドリフトに悩まされる。
仮想同質性学習(virtual homogeneity learning, vhl)という別の手法を提案する。
特に、VHLは2つの条件を満たすために作られた仮想同質データセットでFLを実行している。
仮想データセットは、クライアント間で共有される純粋なノイズから生成することができる。
理論的には、VHLが自然分布上で証明可能な一般化性能を達成できることを示す。
実験の結果,vhlは収束速度と一般化性能を大幅に向上させた。
VHLは、仮想データセットを使用してデータの均一性に対処する最初の試みであり、FLに新しく効果的な手段を提供する。
関連論文リスト
- Lightweight Industrial Cohorted Federated Learning for Heterogeneous Assets [0.0]
フェデレーテッド・ラーニング(FL)は、分散機械学習(ML)モデルをトレーニングするための最も広く採用されているコラボレーティブ・ラーニング・アプローチである。
しかし、すべてのFLタスクにおいて、大きなデータ類似性や均質性は認められているため、FLは産業環境では特に設計されていない。
本稿では,コホーティングにモデルパラメータを用いる軽量産業用コホーテッドFL (licFL) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-25T12:48:56Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Fake It Till Make It: Federated Learning with Consensus-Oriented
Generation [52.82176415223988]
コンセンサス指向生成による連合学習(FedCOG)を提案する。
FedCOGは、補完的なデータ生成と知識蒸留に基づくモデルトレーニングという、クライアント側の2つの重要なコンポーネントで構成されています。
古典的および実世界のFLデータセットの実験は、FedCOGが一貫して最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-12-10T18:49:59Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - Federated Virtual Learning on Heterogeneous Data with Local-global
Distillation [17.998623216905496]
局所グロバル蒸留(FedLGD)を用いた不均一データのフェデレーションバーチャルラーニング
局所Global Distillation (FedLGD) を用いた不均一データに対するフェデレーション仮想学習法を提案する。
提案手法は, 蒸留仮想データ量が極めて少ない様々な条件下で, 最先端の異種FLアルゴリズムより優れる。
論文 参考訳(メタデータ) (2023-03-04T00:35:29Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。