論文の概要: Mitigating Data Heterogeneity in Federated Learning with Data
Augmentation
- arxiv url: http://arxiv.org/abs/2206.09979v1
- Date: Mon, 20 Jun 2022 19:47:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 18:20:54.506051
- Title: Mitigating Data Heterogeneity in Federated Learning with Data
Augmentation
- Title(参考訳): データ拡張によるフェデレーション学習におけるデータ不均一性の軽減
- Authors: Artur Back de Luca, Guojun Zhang, Xi Chen, Yaoliang Yu
- Abstract要約: Federated Learning(FL)は、集中型モデルのトレーニングを可能にするフレームワークである。
主な障害の1つは、データ不均一性、すなわち、各クライアントが独立に独立に分散した(非IID)データを持っていることである。
最近の証拠は、データ拡張が同等またはそれ以上のパフォーマンスを誘導できることを示している。
- 参考スコア(独自算出の注目度): 26.226057709504733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a prominent framework that enables training a
centralized model while securing user privacy by fusing local, decentralized
models. In this setting, one major obstacle is data heterogeneity, i.e., each
client having non-identically and independently distributed (non-IID) data.
This is analogous to the context of Domain Generalization (DG), where each
client can be treated as a different domain. However, while many approaches in
DG tackle data heterogeneity from the algorithmic perspective, recent evidence
suggests that data augmentation can induce equal or greater performance.
Motivated by this connection, we present federated versions of popular DG
algorithms, and show that by applying appropriate data augmentation, we can
mitigate data heterogeneity in the federated setting, and obtain higher
accuracy on unseen clients. Equipped with data augmentation, we can achieve
state-of-the-art performance using even the most basic Federated Averaging
algorithm, with much sparser communication.
- Abstract(参考訳): フェデレートラーニング(FL)は、集中型モデルをトレーニングし、ローカルに分散したモデルを融合させることで、ユーザのプライバシを確保しながら、重要なフレームワークである。
この設定では、1つの大きな障害はデータ不均一性、すなわち各クライアントが独立に独立に分散した(非IID)データを持っていることである。
これは、各クライアントを別のドメインとして扱うことができるドメイン一般化(DG)のコンテキストに似ている。
しかし、DGにおける多くのアプローチは、アルゴリズムの観点からデータ不均一性に取り組む一方で、最近の証拠は、データ拡張が同等またはより大きなパフォーマンスをもたらすことを示唆している。
この接続により、一般的なDGアルゴリズムのフェデレーションバージョンを提示し、適切なデータ拡張を適用することにより、フェデレーション設定におけるデータの均一性を緩和し、未知のクライアントに対して高い精度を得ることができることを示す。
データ拡張機能を備えることで、最も基本的なフェデレーション平均化アルゴリズムでさえも、多くのスパーザー通信で最先端のパフォーマンスを実現することができる。
関連論文リスト
- Dual-Criterion Model Aggregation in Federated Learning: Balancing Data Quantity and Quality [0.0]
フェデレートラーニング(FL)は、プライバシ保護のための協調学習の鍵となる方法の1つとなっている。
集約アルゴリズムは、システムの有効性と安全性を確保する上で最も重要なコンポーネントの1つとして認識される。
本研究では,クライアントノードからのデータ量と品質を含む新しい二項重み付けアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-12T14:09:16Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - Gradient Masked Averaging for Federated Learning [24.687254139644736]
フェデレートラーニングは、統一グローバルモデルの学習を協調するために、異種データを持つ多数のクライアントを可能にする。
標準FLアルゴリズムは、サーバのグローバルモデルを近似するために、モデルパラメータや勾配の更新を平均化する。
本稿では,クライアント更新の標準平均化の代替として,FLの勾配マスク平均化手法を提案する。
論文 参考訳(メタデータ) (2022-01-28T08:42:43Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。