論文の概要: Scheduling for Cellular Federated Edge Learning with Importance and
Channel Awareness
- arxiv url: http://arxiv.org/abs/2004.00490v2
- Date: Tue, 23 Jun 2020 05:25:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 19:37:20.457841
- Title: Scheduling for Cellular Federated Edge Learning with Importance and
Channel Awareness
- Title(参考訳): 重要度とチャネル認識を考慮したセルラーフェデレーションエッジ学習のスケジューリング
- Authors: Jinke Ren, Yinghui He, Dingzhu Wen, Guanding Yu, Kaibin Huang, and
Dongning Guo
- Abstract要約: セルラーフェデレーションエッジ学習(FEEL)では、ローカルデータを保持する複数のエッジデバイスが、データサンプルを交換することなく、学習更新をアクセスポイントと通信することで、ニューラルネットワークを共同で訓練する。
本稿では,マルチユーザチャネルの多様性と,エッジデバイスの学習更新における「重要度」の多様性を両立させる新しいスケジューリングポリシーを提案する。
- 参考スコア(独自算出の注目度): 47.15628532987155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In cellular federated edge learning (FEEL), multiple edge devices holding
local data jointly train a neural network by communicating learning updates
with an access point without exchanging their data samples. With very limited
communication resources, it is beneficial to schedule the most informative
local learning updates. In this paper, a novel scheduling policy is proposed to
exploit both diversity in multiuser channels and diversity in the "importance"
of the edge devices' learning updates. First, a new probabilistic scheduling
framework is developed to yield unbiased update aggregation in FEEL. The
importance of a local learning update is measured by its gradient divergence.
If one edge device is scheduled in each communication round, the scheduling
policy is derived in closed form to achieve the optimal trade-off between
channel quality and update importance. The probabilistic scheduling framework
is then extended to allow scheduling multiple edge devices in each
communication round. Numerical results obtained using popular models and
learning datasets demonstrate that the proposed scheduling policy can achieve
faster model convergence and higher learning accuracy than conventional
scheduling policies that only exploit a single type of diversity.
- Abstract(参考訳): セルフェデレーションエッジ学習(feel)では、ローカルデータを保持した複数のエッジデバイスが、データサンプルを交換することなく、学習更新をアクセスポイントと通信することでニューラルネットワークを訓練する。
通信リソースが非常に限られており、最も有益なローカルラーニングアップデートをスケジュールすることが有益である。
本稿では,マルチユーザチャネルの多様性と,エッジデバイスの学習更新における「重要度」の多様性を両立させる新しいスケジューリングポリシーを提案する。
まず、新しい確率的スケジューリングフレームワークを開発し、FEELの非バイアス更新アグリゲーションを実現する。
局所学習更新の重要性は、勾配の発散によって測定される。
1つのエッジデバイスが各通信ラウンドでスケジュールされている場合、スケジューリングポリシーはクローズド形式で導出され、チャネル品質と更新重要性の最適なトレードオフを実現する。
次に確率的スケジューリングフレームワークを拡張して,通信ラウンド毎に複数のエッジデバイスをスケジューリングする。
一般的なモデルと学習データセットを用いて得られた数値結果から,提案したスケジューリングポリシは,単一種類の多様性のみを利用する従来のスケジューリングポリシよりも高速なモデル収束と学習精度が得られることが示された。
関連論文リスト
- Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Client Selection for Federated Bayesian Learning [6.055038050790775]
我々は,KSD(Kernelized Stein Discrepancy)とHilbert内積(HIP)に基づくDSVGDの選択方式を提案する。
各種学習課題やデータセットを用いて,モデル精度,収束速度,安定性の観点から,従来のスキームとの比較を行った。
論文 参考訳(メタデータ) (2022-12-11T12:37:31Z) - Stochastic Coded Federated Learning: Theoretical Analysis and Incentive
Mechanism Design [18.675244280002428]
我々は、コード化されたコンピューティング技術を活用する新しいFLフレームワーク、コード付きフェデレーションラーニング(SCFL)を提案する。
SCFLでは、各エッジデバイスがプライバシを保存するコード化されたデータセットをサーバにアップロードする。
SCFLは、与えられた時間内でより良いモデルを学び、ベースライン方式よりも優れたプライバシーとパフォーマンスのトレードオフを実現する。
論文 参考訳(メタデータ) (2022-11-08T09:58:36Z) - Accelerating Federated Edge Learning via Optimized Probabilistic Device
Scheduling [57.271494741212166]
本稿では,通信時間最小化問題を定式化し,解決する。
最適化されたポリシーは、トレーニングプロセスが進むにつれて、残りの通信ラウンドの抑制から、ラウンドごとのレイテンシの低減へと、徐々に優先順位を転換している。
提案手法の有効性は,自律運転における協調的3次元目標検出のユースケースを通じて実証される。
論文 参考訳(メタデータ) (2021-07-24T11:39:17Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - Data-Aware Device Scheduling for Federated Edge Learning [5.521735057483887]
Federated Edge Learning (FEEL)は、エッジデバイス間の機械学習モデルの協調トレーニングを含む。
FEELにおける非独立分散(非IID)データセットとアンバランスデータセットの新しいスケジューリング方式を提案する。
提案するFEELスケジューリングアルゴリズムは,低コストで数ラウンドで高い精度を実現することができることを示す。
論文 参考訳(メタデータ) (2021-02-18T17:17:56Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Scheduling Policy and Power Allocation for Federated Learning in NOMA
Based MEC [21.267954799102874]
Federated Learning(FL)は、データ分散を維持しながらモデルを集中的にトレーニングできる、高度に追求された機械学習技術である。
重み付き和データレートを最大化するために、非直交多重アクセス(NOMA)設定を用いた新しいスケジューリングポリシーと電力割当方式を提案する。
シミュレーションの結果,提案手法は,NOMAベースの無線ネットワークにおいて高いFLテスト精度を実現するのに有効であることがわかった。
論文 参考訳(メタデータ) (2020-06-21T23:07:41Z) - Jointly Optimizing Dataset Size and Local Updates in Heterogeneous
Mobile Edge Learning [11.191719032853527]
本稿では、リソース制約のある無線エッジを介して接続された学習者を対象に訓練された分散機械学習(ML)モデルの精度を最大化する。
我々は,各学習者の不均一なコミュニケーションと計算能力を考慮して,ローカル/グローバルな更新数とタスクサイズ割り当てを共同で最適化し,損失を最小限に抑える。
論文 参考訳(メタデータ) (2020-06-12T18:19:20Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。