論文の概要: Analysis and Optimal Edge Assignment For Hierarchical Federated Learning
on Non-IID Data
- arxiv url: http://arxiv.org/abs/2012.05622v2
- Date: Wed, 3 Feb 2021 13:41:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 18:00:49.382043
- Title: Analysis and Optimal Edge Assignment For Hierarchical Federated Learning
on Non-IID Data
- Title(参考訳): 非IIDデータに基づく階層型フェデレーション学習の解析と最適エッジ割り当て
- Authors: Naram Mhaisen, Alaa Awad, Amr Mohamed, Aiman Erbad, Mohsen Guizani
- Abstract要約: フェデレーション学習アルゴリズムは、ユーザのデバイスに格納された分散および多様なデータを活用して、グローバルな現象を学習することを目的としている。
参加者のデータが強く歪んだ場合(例えば、非iidの場合)、ローカルモデルはローカルデータに過剰に適合し、低パフォーマンスなグローバルモデルに繋がる。
ユーザエッジ層にFederated Gradient Descent、エッジクラウド層にFederated Averagingを実行する階層学習システムを提案する。
- 参考スコア(独自算出の注目度): 43.32085029569374
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distributed learning algorithms aim to leverage distributed and diverse data
stored at users' devices to learn a global phenomena by performing training
amongst participating devices and periodically aggregating their local models'
parameters into a global model. Federated learning is a promising paradigm that
allows for extending local training among the participant devices before
aggregating the parameters, offering better communication efficiency. However,
in the cases where the participants' data are strongly skewed (i.e., non-IID),
the local models can overfit local data, leading to low performing global
model. In this paper, we first show that a major cause of the performance drop
is the weighted distance between the distribution over classes on users'
devices and the global distribution. Then, to face this challenge, we leverage
the edge computing paradigm to design a hierarchical learning system that
performs Federated Gradient Descent on the user-edge layer and Federated
Averaging on the edge-cloud layer. In this hierarchical architecture, we
formalize and optimize this user-edge assignment problem such that edge-level
data distributions turn to be similar (i.e., close to IID), which enhances the
Federated Averaging performance. Our experiments on multiple real-world
datasets show that the proposed optimized assignment is tractable and leads to
faster convergence of models towards a better accuracy value.
- Abstract(参考訳): 分散学習アルゴリズムは、ユーザのデバイスに格納された分散データを利用して、参加するデバイス間でトレーニングを行い、定期的にローカルモデルのパラメータをグローバルモデルに集約することで、グローバルな現象を学習することを目的としている。
フェデレーション学習は、パラメータを集約する前に参加者デバイス間のローカルトレーニングを拡大し、コミュニケーション効率を向上する有望なパラダイムである。
しかしながら、参加者のデータが強く歪んだ場合(例えば、非iidの場合)、ローカルモデルはローカルデータに過剰に適合し、低パフォーマンスなグローバルモデルに繋がる。
本稿では,まず,性能低下の主な原因として,ユーザのデバイス上のクラス間の分布とグローバルな分布との重み付き距離について述べる。
そして、この課題に直面するために、エッジコンピューティングパラダイムを利用して、ユーザ・エッジ層でフェデレーション勾配降下を行い、エッジ・クラウド層で平均フェデレーションを行う階層的学習システムを設計する。
この階層アーキテクチャでは、エッジレベルのデータ分散が類似する(IIDに近い)ようなユーザエッジ割り当て問題を形式化し、最適化し、フェデレーション平均化性能を向上させる。
複数の実世界のデータセットにおける実験により,提案する最適化された割り当ては扱いやすく,より精度の高い値へとモデルの収束が速くなることが示された。
関連論文リスト
- Modality Alignment Meets Federated Broadcasting [9.752555511824593]
フェデレートラーニング(FL)は、ローカルデータを集中化せずに、分散エッジデバイス間でモデルをトレーニングすることで、データのプライバシを保護する強力なアプローチとして登場した。
本稿では,テキストエンコーダをサーバ上に配置し,画像エンコーダをローカルデバイス上で動作させる,モダリティアライメントを利用した新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-24T13:30:03Z) - FedMAP: Unlocking Potential in Personalized Federated Learning through Bi-Level MAP Optimization [11.040916982022978]
フェデレートラーニング(FL)は、分散データに基づく機械学習モデルの協調トレーニングを可能にする。
クライアント間でのデータはしばしば、クラス不均衡、特徴分散スキュー、サンプルサイズ不均衡、その他の現象によって大きく異なる。
本稿では,バイレベル最適化を用いた新しいベイズPFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T11:28:06Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Federated Learning for Semantic Parsing: Task Formulation, Evaluation
Setup, New Algorithms [29.636944156801327]
複数のクライアントは、セマンティック解析データを共有せずに、1つのグローバルモデルを協調的にトレーニングする。
Lorarは、各ラウンド中のトレーニング損失の削減に基づいて、グローバルモデル更新に対する各クライアントのコントリビューションを調整する。
より小さなデータセットを持つクライアントは、より大きなパフォーマンス向上を享受する。
論文 参考訳(メタデータ) (2023-05-26T19:25:49Z) - Neural Collapse Inspired Federated Learning with Non-iid Data [31.576588815816095]
非独立かつ同一に分散された(非ID)特性は、ローカル更新に大きな違いをもたらし、中央サーバの性能に影響する。
神経崩壊の現象にインスパイアされた私たちは、各クライアントを最適なグローバル構造に最適化するよう強制する。
提案手法は, 異なるサイズのデータセット上での収束速度を高速化して, 性能を向上することができる。
論文 参考訳(メタデータ) (2023-03-27T05:29:53Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。