論文の概要: Scheduling Policy and Power Allocation for Federated Learning in NOMA
Based MEC
- arxiv url: http://arxiv.org/abs/2006.13044v1
- Date: Sun, 21 Jun 2020 23:07:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 12:06:12.905368
- Title: Scheduling Policy and Power Allocation for Federated Learning in NOMA
Based MEC
- Title(参考訳): NOMAベースのMECにおけるフェデレーション学習のためのスケジューリングポリシーとパワーアロケーション
- Authors: Xiang Ma, Haijian Sun, Rose Qingyang Hu
- Abstract要約: Federated Learning(FL)は、データ分散を維持しながらモデルを集中的にトレーニングできる、高度に追求された機械学習技術である。
重み付き和データレートを最大化するために、非直交多重アクセス(NOMA)設定を用いた新しいスケジューリングポリシーと電力割当方式を提案する。
シミュレーションの結果,提案手法は,NOMAベースの無線ネットワークにおいて高いFLテスト精度を実現するのに有効であることがわかった。
- 参考スコア(独自算出の注目度): 21.267954799102874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a highly pursued machine learning technique that
can train a model centrally while keeping data distributed. Distributed
computation makes FL attractive for bandwidth limited applications especially
in wireless communications. There can be a large number of distributed edge
devices connected to a central parameter server (PS) and iteratively
download/upload data from/to the PS. Due to the limited bandwidth, only a
subset of connected devices can be scheduled in each round. There are usually
millions of parameters in the state-of-art machine learning models such as deep
learning, resulting in a high computation complexity as well as a high
communication burden on collecting/distributing data for training. To improve
communication efficiency and make the training model converge faster, we
propose a new scheduling policy and power allocation scheme using
non-orthogonal multiple access (NOMA) settings to maximize the weighted sum
data rate under practical constraints during the entire learning process. NOMA
allows multiple users to transmit on the same channel simultaneously. The user
scheduling problem is transformed into a maximum-weight independent set problem
that can be solved using graph theory. Simulation results show that the
proposed scheduling and power allocation scheme can help achieve a higher FL
testing accuracy in NOMA based wireless networks than other existing schemes.
- Abstract(参考訳): Federated Learning(FL)は、データ分散を維持しながらモデルを集中的にトレーニングできる、高度に追求された機械学習技術である。
分散計算は帯域幅の制限されたアプリケーション、特に無線通信においてflを魅力的にする。
中央パラメータサーバ(PS)に接続された多数の分散エッジデバイスがあり、PSへのデータを反復的にダウンロード/アップロードすることができる。
帯域幅が限られているため、接続されたデバイスのサブセットのみが各ラウンドでスケジュールできる。
ディープラーニングのような最先端の機械学習モデルには、通常数百万のパラメータがあり、計算の複雑さが高まり、トレーニングのためのデータの収集と配布に通信の負担がかかる。
通信効率を向上し,トレーニングモデルをより高速に収束させるため,非直交多重アクセス(NOMA)設定を用いた新たなスケジューリングポリシと電力割当方式を提案し,学習過程全体において,重み付き和データレートを最大化する。
NOMAは複数のユーザが同時に同じチャンネルで送信することができる。
ユーザスケジューリング問題は、グラフ理論を用いて解くことができる最大ウェイト独立セット問題に変換される。
シミュレーションの結果,提案するスケジューリングと電力割当方式は,既存の方式よりもnomaベースの無線ネットワークにおいて高いflテスト精度を達成することができることがわかった。
関連論文リスト
- Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Wirelessly Powered Federated Learning Networks: Joint Power Transfer,
Data Sensing, Model Training, and Resource Allocation [24.077525032187893]
フェデレートラーニング(FL)は、無線ネットワークで多くの成功を収めている。
FLの実装は、モバイルデバイス(MD)のエネルギー制限と、MDにおけるトレーニングデータの可用性によって妨げられている。
無線送電と持続可能なFLネットワークの統合
論文 参考訳(メタデータ) (2023-08-09T13:38:58Z) - Asynchronous Multi-Model Dynamic Federated Learning over Wireless
Networks: Theory, Modeling, and Optimization [20.741776617129208]
分散機械学習(ML)の鍵となる技術として、フェデレートラーニング(FL)が登場した。
まず、システムパラメータが学習性能に与える影響を捉えるために、長方形のスケジューリングステップと関数を定式化する。
我々の分析は、デバイストレーニング変数と非同期スケジューリング決定の協調的影響に光を当てている。
論文 参考訳(メタデータ) (2023-05-22T21:39:38Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - Multi-Job Intelligent Scheduling with Cross-Device Federated Learning [65.69079337653994]
フェデレートラーニング(FL)は、センシティブな生データを共有せずに、協調的なグローバル機械学習モデルのトレーニングを可能にする。
本稿では,複数のジョブを並列にトレーニングできる新しいマルチジョブFLフレームワークを提案する。
本稿では,元来の強化学習に基づくスケジューリング手法と元来のベイズ最適化に基づくスケジューリング手法を含む,複数のスケジューリング手法に基づく新しいインテリジェントスケジューリング手法を提案する。
論文 参考訳(メタデータ) (2022-11-24T06:17:40Z) - Communication-Efficient Device Scheduling for Federated Learning Using
Stochastic Optimization [26.559267845906746]
Time Learning(FL)は、ユーザのローカルデータセットをプライバシ保存形式で利用する分散機械学習において有用なツールである。
本稿では,非効率収束境界アルゴリズムを提案する。
また、電力制約下での収束境界と平均通信の関数を最小化する新しい選択および電力割当アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-01-19T23:25:24Z) - Computational Intelligence and Deep Learning for Next-Generation
Edge-Enabled Industrial IoT [51.68933585002123]
エッジ対応産業用IoTネットワークにおける計算知能とディープラーニング(DL)の展開方法について検討する。
本稿では,新しいマルチエグジットベースフェデレーションエッジ学習(ME-FEEL)フレームワークを提案する。
特に、提案されたME-FEELは、非常に限られたリソースを持つ産業用IoTネットワークにおいて、最大32.7%の精度を達成することができる。
論文 参考訳(メタデータ) (2021-10-28T08:14:57Z) - User Scheduling for Federated Learning Through Over-the-Air Computation [22.853678584121862]
FL(Federated Learning)と呼ばれる新しい機械学習技術は、エッジデバイスにおけるデータの保存と、学習プロセスにおけるMLモデルパラメータの交換のみを目的としている。
FLは通信ニーズを減らすだけでなく、地域のプライバシーを守るのにも役立ちます。
AirCompは、アナログ変調を用いて複数のデバイスが同時にデータを送信できるようにすることで、データを送信しながら計算することができる。
論文 参考訳(メタデータ) (2021-08-05T23:58:15Z) - Joint Device Scheduling and Resource Allocation for Latency Constrained
Wireless Federated Learning [26.813145949399427]
FL(Federated Learning)では、デバイスがローカルモデルの更新を無線チャネル経由でアップロードする。
モデル精度を最大化するために,共同装置スケジューリングと資源配分ポリシーを提案する。
実験の結果,提案手法は最先端のスケジューリング方式よりも優れていた。
論文 参考訳(メタデータ) (2020-07-14T16:46:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。