論文の概要: A Novel Deep Reinforcement Learning Method for Computation Offloading in Multi-User Mobile Edge Computing with Decentralization
- arxiv url: http://arxiv.org/abs/2506.02458v1
- Date: Tue, 03 Jun 2025 05:22:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 01:42:09.390576
- Title: A Novel Deep Reinforcement Learning Method for Computation Offloading in Multi-User Mobile Edge Computing with Decentralization
- Title(参考訳): 分散化されたマルチユーザモバイルエッジコンピューティングにおける計算オフロードのための新しい深層強化学習法
- Authors: Nguyen Chi Long, Trinh Van Chien, Ta Hai Tung, Van Son Nguyen, Trong-Minh Hoang, Nguyen Ngoc Hai Dang,
- Abstract要約: モバイルエッジコンピューティング(MEC)は、計算能力に制限のある計算集約的なタスクの可能性がある近隣のMECサーバに、アプライアンスによってワークロードをオフロードすることを可能にする。
本稿では,MECシステムにおいて深部強化学習(DRL)アルゴリズムを用いて,分散化された動的計算オフロード戦略を提案する。
そこで我々は,Twin Delayed DDPGアルゴリズムに基づくこの問題に対する新しいアプローチを提案し,この傾向を克服し,モバイルユーザがポータブルであるケースを調査する。
- 参考スコア(独自算出の注目度): 6.091253785653884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile edge computing (MEC) allows appliances to offload workloads to neighboring MEC servers that have the potential for computation-intensive tasks with limited computational capabilities. This paper studied how deep reinforcement learning (DRL) algorithms are used in an MEC system to find feasible decentralized dynamic computation offloading strategies, which leads to the construction of an extensible MEC system that operates effectively with finite feedback. Even though the Deep Deterministic Policy Gradient (DDPG) algorithm, subject to their knowledge of the MEC system, can be used to allocate powers of both computation offloading and local execution, to learn a computation offloading policy for each user independently, we realized that this solution still has some inherent weaknesses. Hence, we introduced a new approach for this problem based on the Twin Delayed DDPG algorithm, which enables us to overcome this proneness and investigate cases where mobile users are portable. Numerical results showed that individual users can autonomously learn adequate policies through the proposed approach. Besides, the performance of the suggested solution exceeded the conventional DDPG-based power control strategy.
- Abstract(参考訳): モバイルエッジコンピューティング(MEC)は、計算能力に制限のある計算集約的なタスクの可能性がある近隣のMECサーバに、アプライアンスによってワークロードをオフロードすることを可能にする。
本稿では, 深部強化学習(DRL)アルゴリズムをMECシステムに応用し, 有限フィードバックで効果的に動作する拡張可能なMECシステムの構築に繋がる, 分散化された動的計算オフロード戦略を提案する。
計算オフロードとローカル実行の両方のパワーを割り当て,各ユーザの計算オフロードポリシを独立に学習するために, MEC システムの知識を前提とした DDPG (Deep Deterministic Policy Gradient) アルゴリズムを用いるが,本手法には固有の弱点があることに気付いた。
そこで我々は,Twin Delayed DDPGアルゴリズムに基づくこの問題に対する新しいアプローチを導入し,この傾向を克服し,モバイルユーザがポータブルであるケースを調査する。
数値解析の結果,提案手法により,個々の利用者が適切な政策を自律的に学習できることが示唆された。
さらに,提案手法の性能は従来のDDPG方式の電力制御戦略を上回った。
関連論文リスト
- Learning for Cross-Layer Resource Allocation in MEC-Aided Cell-Free Networks [71.30914500714262]
移動エッジコンピューティング(MEC)を援用したセルフリーネットワーク上でのクロスレイヤリソース割り当ては、データレートを促進するために、送信およびコンピューティングリソースを十分に活用することができる。
深層学習の観点からMEC支援セルフリーネットワークのサブキャリア配置とビームフォーミング最適化について検討した。
論文 参考訳(メタデータ) (2024-12-21T10:18:55Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - UAV Path Planning Employing MPC- Reinforcement Learning Method for
search and rescue mission [0.0]
複雑で不確実な環境での無人航空路計画(UA V)の課題に取り組む。
本稿では,Long-Short-Term Memory (LSTM) ネットワークに基づくモデル予測制御(MPC)を,Deep Deterministic Policy Gradientアルゴリズムに統合して設計する。
論文 参考訳(メタデータ) (2023-02-21T13:39:40Z) - Distributed-Training-and-Execution Multi-Agent Reinforcement Learning
for Power Control in HetNet [48.96004919910818]
We propose a multi-agent Deep reinforcement learning (MADRL) based power control scheme for the HetNet。
エージェント間の協調を促進するために,MADRLシステムのためのペナルティベースQラーニング(PQL)アルゴリズムを開発した。
このように、エージェントのポリシーは、他のエージェントによってより容易に学習でき、より効率的なコラボレーションプロセスをもたらす。
論文 参考訳(メタデータ) (2022-12-15T17:01:56Z) - Computation Offloading and Resource Allocation in F-RANs: A Federated
Deep Reinforcement Learning Approach [67.06539298956854]
フォグ無線アクセスネットワーク(フォグ無線アクセスネットワーク、F-RAN)は、ユーザのモバイルデバイス(MD)が計算タスクを近くのフォグアクセスポイント(F-AP)にオフロードできる有望な技術である。
論文 参考訳(メタデータ) (2022-06-13T02:19:20Z) - Deep Reinforcement Learning Based Mobile Edge Computing for Intelligent
Internet of Things [10.157016543999045]
我々は、深層強化学習アルゴリズムを用いて、オフロード戦略をインテリジェントに提案することで、システムを考案する。
ディープQネットワークは、システムパフォーマンスを最適化するために、オフロードの決定を自動的に学習するために使用される。
ニューラルネットワーク(NN)は、環境システムからトレーニングデータが生成されるオフロード動作を予測するために訓練される。
特に、提案した深部強化学習に基づくアルゴリズムにより、レイテンシとエネルギー消費のシステムコストを大幅に削減することができる。
論文 参考訳(メタデータ) (2020-08-01T11:45:54Z) - Learning Centric Power Allocation for Edge Intelligence [84.16832516799289]
分散データを収集し、エッジで機械学習を実行するエッジインテリジェンスが提案されている。
本稿では,経験的分類誤差モデルに基づいて無線リソースを割り当てるLCPA法を提案する。
実験の結果,提案したLCPAアルゴリズムは,他のパワーアロケーションアルゴリズムよりも有意に優れていた。
論文 参考訳(メタデータ) (2020-07-21T07:02:07Z) - A Machine Learning Approach for Task and Resource Allocation in Mobile
Edge Computing Based Networks [108.57859531628264]
無線ネットワークにおいて,共同作業,スペクトル,送信電力配分問題について検討する。
提案アルゴリズムは、標準Q-ラーニングアルゴリズムと比較して、収束に必要なイテレーション数と全ユーザの最大遅延を最大18%、11.1%削減することができる。
論文 参考訳(メタデータ) (2020-07-20T13:46:42Z) - Computation Offloading in Multi-Access Edge Computing Networks: A
Multi-Task Learning Approach [7.203439085947118]
マルチアクセスエッジコンピューティング(MEC)は、いくつかのタスクをMECサーバ(MES)に統合された近接アクセスポイント(AP)にオフロードすることで、モバイル機器が計算集約的なアプリケーションに対応できるようにする可能性をすでに示している。
しかし,MESのネットワーク条件や計算資源が限られているため,モバイル端末によるオフロード決定やMESが割り当てる計算資源は,低コストで効率よく達成できない。
我々はMECネットワークのための動的オフロードフレームワークを提案し、アップリンク非直交多重アクセス(NOMA)を用いて複数のデバイスがアップロードできるようにする。
論文 参考訳(メタデータ) (2020-06-29T15:11:10Z) - Multi-agent Reinforcement Learning for Resource Allocation in IoT
networks with Edge Computing [16.129649374251088]
エンドユーザーが計算をオフロードするのは、スペクトルとリソースに対する大きな要求のためである。
本稿では,IoTエッジコンピューティングネットワークにおけるリソース割り当てを伴うオフロード機構をゲームとして定式化することによって検討する。
論文 参考訳(メタデータ) (2020-04-05T20:59:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。