論文の概要: Gradient Masked Averaging for Federated Learning
- arxiv url: http://arxiv.org/abs/2201.11986v1
- Date: Fri, 28 Jan 2022 08:42:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-31 14:35:05.272465
- Title: Gradient Masked Averaging for Federated Learning
- Title(参考訳): フェデレーション学習のための勾配マスク平均化
- Authors: Irene Tenison, Sai Aravind Sreeramadas, Vaikkunth Mugunthan, Edouard
Oyallon, Eugene Belilovsky, Irina Rish
- Abstract要約: フェデレートラーニングは、統一グローバルモデルの学習を協調するために、異種データを持つ多数のクライアントを可能にする。
標準フェデレーション学習アルゴリズムは、サーバのグローバルモデルを近似するために、モデルパラメータや勾配の更新を平均化する。
本稿では,クライアント更新の標準平均化の代替として,フェデレート学習のための勾配マスク付き平均化手法を提案する。
- 参考スコア(独自算出の注目度): 26.699599533245337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is an emerging paradigm that permits a large number of
clients with heterogeneous data to coordinate learning of a unified global
model without the need to share data amongst each other. Standard federated
learning algorithms involve averaging of model parameters or gradient updates
to approximate the global model at the server. However, in heterogeneous
settings averaging can result in information loss and lead to poor
generalization due to the bias induced by dominant clients. We hypothesize that
to generalize better across non-i.i.d datasets as in FL settings, the
algorithms should focus on learning the invariant mechanism that is constant
while ignoring spurious mechanisms that differ across clients. Inspired from
recent work in the Out-of-Distribution literature, we propose a gradient masked
averaging approach for federated learning as an alternative to the standard
averaging of client updates. This client update aggregation technique can be
adapted as a drop-in replacement in most existing federated algorithms. We
perform extensive experiments with gradient masked approach on multiple FL
algorithms with in-distribution, real-world, and out-of-distribution (as the
worst case scenario) test dataset and show that it provides consistent
improvements, particularly in the case of heterogeneous clients.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、異種データを持つ多数のクライアントが互いにデータを共有することなく、統一されたグローバルモデルの学習をコーディネートできるようにする、新たなパラダイムである。
標準的なフェデレーション学習アルゴリズムは、サーバーのグローバルモデルを近似するためにモデルパラメータや勾配更新の平均化を伴う。
しかし、不均一な設定における平均化は、情報損失をもたらし、支配的なクライアントによって引き起こされるバイアスによる一般化の低下につながる。
FL設定のように、非i.dデータセットをより一般化するためには、クライアント間で異なる急激なメカニズムを無視しながら、一定である不変なメカニズムを学習することに集中すべきである、という仮説を立てる。
本研究では,分散型学習のための勾配マスク型平均化手法を,クライアント更新の標準平均化に代わるものとして提案する。
このクライアント更新集約技術は、既存のほとんどのフェデレーションアルゴリズムのドロップイン代替として適用することができる。
分散性,実世界性,分散性(最悪の場合として)のテストデータセットを備えた複数のflアルゴリズムに対して,勾配マスクによる広範囲な実験を行い,特にヘテロジニアスクライアントの場合において一貫した改善を提供することを示す。
関連論文リスト
- Client Contribution Normalization for Enhanced Federated Learning [4.726250115737579]
スマートフォンやラップトップを含むモバイルデバイスは、分散化された異種データを生成する。
フェデレートラーニング(FL)は、データ共有のない分散デバイス間でグローバルモデルの協調トレーニングを可能にすることで、有望な代替手段を提供する。
本稿では、FLにおけるデータ依存的不均一性に着目し、局所的に訓練されたモデルから抽出された平均潜在表現を活用する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-10T04:03:09Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Federated Learning for Semantic Parsing: Task Formulation, Evaluation
Setup, New Algorithms [29.636944156801327]
複数のクライアントは、セマンティック解析データを共有せずに、1つのグローバルモデルを協調的にトレーニングする。
Lorarは、各ラウンド中のトレーニング損失の削減に基づいて、グローバルモデル更新に対する各クライアントのコントリビューションを調整する。
より小さなデータセットを持つクライアントは、より大きなパフォーマンス向上を享受する。
論文 参考訳(メタデータ) (2023-05-26T19:25:49Z) - Confidence-aware Personalized Federated Learning via Variational
Expectation Maximization [34.354154518009956]
パーソナライズド・フェデレーション・ラーニング(PFL)のための新しいフレームワークを提案する。
PFLは、クライアント間で共有モデルをトレーニングする分散学習スキームである。
階層的モデリングと変分推論に基づくPFLの新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T20:12:27Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。