論文の概要: Federated Learning for Task and Resource Allocation in Wireless High
Altitude Balloon Networks
- arxiv url: http://arxiv.org/abs/2003.09375v1
- Date: Thu, 19 Mar 2020 14:18:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 04:16:11.304796
- Title: Federated Learning for Task and Resource Allocation in Wireless High
Altitude Balloon Networks
- Title(参考訳): 無線高高度気球ネットワークにおけるタスクと資源配分のフェデレーション学習
- Authors: Sihua Wang, Mingzhe Chen, Changchuan Yin, Walid Saad, Choong Seon
Hong, Shuguang Cui, H. Vincent Poor
- Abstract要約: 移動エッジコンピューティング(MEC)対応バルーンネットワークにおいて,タスク計算と伝送におけるエネルギーと時間消費の最小化の問題について検討した。
サポートベクトルマシン(SVM)に基づくフェデレーション学習(FL)アルゴリズムを提案する。
提案したSVMベースのFL法では,各HABが協調してSVMモデルを構築し,すべてのユーザアソシエーションを決定できる。
- 参考スコア(独自算出の注目度): 160.96150373385768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, the problem of minimizing energy and time consumption for task
computation and transmission is studied in a mobile edge computing
(MEC)-enabled balloon network. In the considered network, each user needs to
process a computational task in each time instant, where high-altitude balloons
(HABs), acting as flying wireless base stations, can use their powerful
computational abilities to process the tasks offloaded from their associated
users. Since the data size of each user's computational task varies over time,
the HABs must dynamically adjust the user association, service sequence, and
task partition scheme to meet the users' needs. This problem is posed as an
optimization problem whose goal is to minimize the energy and time consumption
for task computing and transmission by adjusting the user association, service
sequence, and task allocation scheme. To solve this problem, a support vector
machine (SVM)-based federated learning (FL) algorithm is proposed to determine
the user association proactively. The proposed SVM-based FL method enables each
HAB to cooperatively build an SVM model that can determine all user
associations without any transmissions of either user historical associations
or computational tasks to other HABs. Given the prediction of the optimal user
association, the service sequence and task allocation of each user can be
optimized so as to minimize the weighted sum of the energy and time
consumption. Simulations with real data of city cellular traffic from the
OMNILab at Shanghai Jiao Tong University show that the proposed algorithm can
reduce the weighted sum of the energy and time consumption of all users by up
to 16.1% compared to a conventional centralized method.
- Abstract(参考訳): 本稿では,移動エッジコンピューティング(MEC)対応バルーンネットワークにおいて,タスク計算と伝送におけるエネルギーと時間消費の最小化の問題について検討する。
検討されたネットワークでは,各ユーザがリアルタイムに計算タスクを処理し,無線基地局として機能する高高度気球(HAB)は,その強力な計算能力を利用して,関連するユーザからオフロードされたタスクを処理できる。
各ユーザの計算タスクのデータサイズは時間とともに変化するため、HABはユーザのニーズを満たすために、ユーザアソシエーション、サービスシーケンス、タスク分割スキームを動的に調整する必要がある。
この問題は、ユーザアソシエーション、サービスシーケンス、タスク割り当てスキームを調整することで、タスクコンピューティングと送信におけるエネルギーと時間消費を最小化する最適化問題として提案される。
この問題を解決するために,サポートベクトルマシン(SVM)に基づくフェデレーション学習(FL)アルゴリズムを提案する。
提案手法は,ユーザの履歴関連や計算タスクを他のHABに送信することなく,すべてのユーザ関連を判定できるSVMモデルを協調的に構築する。
最適なユーザアソシエーションの予測を考えると、各ユーザのサービスシーケンスとタスク割り当てを最適化して、エネルギーと時間消費の重み付け和を最小化することができる。
上海・江東大学のOMNILabによる都市セルトラフィックの実データによるシミュレーションにより、提案アルゴリズムは従来の集中型手法と比較して、全ユーザのエネルギーと時間消費の重み付けを最大16.1%削減できることを示した。
関連論文リスト
- Structural Knowledge-Driven Meta-Learning for Task Offloading in
Vehicular Networks with Integrated Communications, Sensing and Computing [21.50450449083369]
タスクオフロードは、オンボードコンピューティングリソースが限られているため、遅延に敏感な車両用アプリケーションの厳格な要件を満たすための潜在的なソリューションである。
本稿では,モデルに基づくAMアルゴリズムとニューラルネットワークを併用した,創造的構造的知識駆動型メタラーニング(SKDML)手法を提案する。
論文 参考訳(メタデータ) (2024-02-25T03:31:59Z) - Mobility-Aware Joint User Scheduling and Resource Allocation for Low
Latency Federated Learning [14.343345846105255]
フェデレート学習システムにおけるユーザモビリティの実践モデルを提案する。
制約のある通信リソースによるトレーニング遅延を最小限に抑えるために,ユーザスケジューリングとリソース割り当て手法を開発した。
具体的には、まず、ユーザ選択、ユーザへのBS割り当て、帯域幅割り当てを共同で検討するユーザモビリティに関する最適化問題を定式化する。
論文 参考訳(メタデータ) (2023-07-18T13:48:05Z) - Dynamic Scheduling for Federated Edge Learning with Streaming Data [56.91063444859008]
我々は,長期的エネルギー制約のある分散エッジデバイスにおいて,トレーニングデータを時間とともにランダムに生成するフェデレーションエッジ学習(FEEL)システムを検討する。
限られた通信リソースとレイテンシ要件のため、各イテレーションでローカルトレーニングプロセスに参加するのはデバイスのサブセットのみである。
論文 参考訳(メタデータ) (2023-05-02T07:41:16Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Computation Offloading and Resource Allocation in F-RANs: A Federated
Deep Reinforcement Learning Approach [67.06539298956854]
フォグ無線アクセスネットワーク(フォグ無線アクセスネットワーク、F-RAN)は、ユーザのモバイルデバイス(MD)が計算タスクを近くのフォグアクセスポイント(F-AP)にオフロードできる有望な技術である。
論文 参考訳(メタデータ) (2022-06-13T02:19:20Z) - Energy-Efficient Multi-Orchestrator Mobile Edge Learning [54.28419430315478]
Mobile Edge Learning(MEL)は、エッジデバイス上で機械学習(ML)モデルの分散トレーニングを特徴とする、協調学習パラダイムである。
MELでは、異なるデータセットで複数の学習タスクが共存する可能性がある。
本稿では, エネルギー消費, 精度, 解複雑性のトレードオフを容易にする軽量なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-02T07:37:10Z) - Energy Efficient Edge Computing: When Lyapunov Meets Distributed
Reinforcement Learning [12.845204986571053]
本研究では,エッジコンピューティングによるエネルギー効率のよいオフロード問題について検討する。
考慮されたシナリオでは、複数のユーザが同時に無線およびエッジコンピューティングリソースを競う。
提案されたソリューションは、ベンチマークアプローチと比較してネットワークのエネルギー効率を高めることもできます。
論文 参考訳(メタデータ) (2021-03-31T11:02:29Z) - A Machine Learning Approach for Task and Resource Allocation in Mobile
Edge Computing Based Networks [108.57859531628264]
無線ネットワークにおいて,共同作業,スペクトル,送信電力配分問題について検討する。
提案アルゴリズムは、標準Q-ラーニングアルゴリズムと比較して、収束に必要なイテレーション数と全ユーザの最大遅延を最大18%、11.1%削減することができる。
論文 参考訳(メタデータ) (2020-07-20T13:46:42Z) - Scheduling Policy and Power Allocation for Federated Learning in NOMA
Based MEC [21.267954799102874]
Federated Learning(FL)は、データ分散を維持しながらモデルを集中的にトレーニングできる、高度に追求された機械学習技術である。
重み付き和データレートを最大化するために、非直交多重アクセス(NOMA)設定を用いた新しいスケジューリングポリシーと電力割当方式を提案する。
シミュレーションの結果,提案手法は,NOMAベースの無線ネットワークにおいて高いFLテスト精度を実現するのに有効であることがわかった。
論文 参考訳(メタデータ) (2020-06-21T23:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。