論文の概要: Deep Reinforcement Learning for Stochastic Computation Offloading in
Digital Twin Networks
- arxiv url: http://arxiv.org/abs/2011.08430v2
- Date: Wed, 18 Nov 2020 02:42:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 15:55:12.736786
- Title: Deep Reinforcement Learning for Stochastic Computation Offloading in
Digital Twin Networks
- Title(参考訳): ディジタル双対ネットワークにおける確率計算オフロードの深部強化学習
- Authors: Yueyue Dai (Member, IEEE), Ke Zhang, Sabita Maharjan (Senior Member,
IEEE), and Yan Zhang (Fellow, IEEE)
- Abstract要約: Digital Twinは、産業用モノのインターネット(IIoT)のデジタルトランスフォーメーションを強化するための有望な技術である
我々はまず,ネットワークトポロジとタスク到着モデルを構築するための新しいパラダイムであるDigital Twin Networks (DTN)を提案する。
次に, 長期エネルギー効率を最小化するために, 計算オフロード問題と資源配分問題を定式化する。
- 参考スコア(独自算出の注目度): 1.0509026467663467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid development of Industrial Internet of Things (IIoT) requires
industrial production towards digitalization to improve network efficiency.
Digital Twin is a promising technology to empower the digital transformation of
IIoT by creating virtual models of physical objects. However, the provision of
network efficiency in IIoT is very challenging due to resource-constrained
devices, stochastic tasks, and resources heterogeneity. Distributed resources
in IIoT networks can be efficiently exploited through computation offloading to
reduce energy consumption while enhancing data processing efficiency. In this
paper, we first propose a new paradigm Digital Twin Networks (DTN) to build
network topology and the stochastic task arrival model in IIoT systems. Then,
we formulate the stochastic computation offloading and resource allocation
problem to minimize the long-term energy efficiency. As the formulated problem
is a stochastic programming problem, we leverage Lyapunov optimization
technique to transform the original problem into a deterministic per-time slot
problem. Finally, we present Asynchronous Actor-Critic (AAC) algorithm to find
the optimal stochastic computation offloading policy. Illustrative results
demonstrate that our proposed scheme is able to significantly outperforms the
benchmarks.
- Abstract(参考訳): 産業用iot(industrial internet of things, iiot)の急速な発展は、ネットワーク効率を改善するためにデジタル化への産業生産を必要とする。
Digital Twinは、物理的なオブジェクトの仮想モデルを作成することによって、IIoTのデジタルトランスフォーメーションを強化する、有望な技術である。
しかし、IIoTにおけるネットワーク効率のプロビジョニングは、リソース制約されたデバイス、確率的タスク、リソースの不均一性のため、非常に難しい。
IIoTネットワークの分散リソースは、計算オフロードによって効率よく利用でき、データ処理効率を高めながら、エネルギー消費を減らすことができる。
本稿では,IIoTシステムにおけるネットワークトポロジと確率的タスク到着モデルを構築するための新しいパラダイムであるDigital Twin Networks(DTN)を提案する。
次に, 長期エネルギー効率を最小化するために, 確率計算オフロードと資源割当問題を定式化する。
定式化問題は確率的プログラミング問題であるため、リアプノフ最適化手法を用いて元の問題を決定論的な時間スロット問題に変換する。
最後に,AAC(Asynchronous Actor-Critic)アルゴリズムを提案する。
その結果,提案手法がベンチマークを著しく上回る結果が得られた。
関連論文リスト
- Generative AI-enabled Quantum Computing Networks and Intelligent
Resource Allocation [80.78352800340032]
量子コンピューティングネットワークは、大規模な生成AI計算タスクと高度な量子アルゴリズムを実行する。
量子コンピューティングネットワークにおける効率的なリソース割り当ては、量子ビットの可変性とネットワークの複雑さのために重要な課題である。
我々は、生成学習から量子機械学習まで、最先端強化学習(RL)アルゴリズムを導入し、最適な量子リソース割り当てを行う。
論文 参考訳(メタデータ) (2024-01-13T17:16:38Z) - Digital Twin-Enhanced Deep Reinforcement Learning for Resource
Management in Networks Slicing [46.65030115953947]
本稿では,デジタルツインと強化学習エージェントからなるフレームワークを提案する。
具体的には、歴史的データとニューラルネットワークを用いて、実環境の状態変動則をシミュレートするデジタルツインモデルを構築することを提案する。
また、このフレームワークをオフラインで強化学習に拡張し、歴史的データのみに基づいたインテリジェントな意思決定にソリューションを利用できるようにします。
論文 参考訳(メタデータ) (2023-11-28T15:25:14Z) - Multiagent Reinforcement Learning with an Attention Mechanism for
Improving Energy Efficiency in LoRa Networks [52.96907334080273]
ネットワーク規模が大きくなるにつれて、パケット衝突によるLoRaネットワークのエネルギー効率は急激に低下する。
マルチエージェント強化学習(MALoRa)に基づく伝送パラメータ割り当てアルゴリズムを提案する。
シミュレーションの結果,MALoRaはベースラインアルゴリズムと比較してシステムEEを著しく改善することがわかった。
論文 参考訳(メタデータ) (2023-09-16T11:37:23Z) - DClEVerNet: Deep Combinatorial Learning for Efficient EV Charging
Scheduling in Large-scale Networked Facilities [5.78463306498655]
電気自動車(EV)は配電ネットワークを著しくストレスし、性能を劣化させ、安定性を損なう可能性がある。
現代の電力網は、EV充電スケジューリングをスケーラブルで効率的な方法で最適化できる、コーディネートまたはスマートな充電戦略を必要とする。
ネットワークの利用可能な電力容量とステーションの占有限度を考慮しつつ、EV利用者の総福祉利益を最大化する時間結合二元最適化問題を定式化する。
論文 参考訳(メタデータ) (2023-05-18T14:03:47Z) - Energy Efficient Hardware Acceleration of Neural Networks with
Power-of-Two Quantisation [0.0]
我々は、Zynq UltraScale + MPSoC ZCU104 FPGA上に実装されたPoT重みを持つハードウェアニューラルネットワークアクセラレーターが、均一量子化バージョンよりも少なくとも1.4x$のエネルギー効率を持つことを示す。
論文 参考訳(メタデータ) (2022-09-30T06:33:40Z) - A Heuristically Assisted Deep Reinforcement Learning Approach for
Network Slice Placement [0.7885276250519428]
本稿では,Deep Reinforcement Learning(DRL)に基づくハイブリッド配置ソリューションと,Power of Two Choices原則に基づく専用最適化を提案する。
提案したHuristically-Assisted DRL (HA-DRL) は,他の最先端手法と比較して学習プロセスの高速化と資源利用の促進を可能にする。
論文 参考訳(メタデータ) (2021-05-14T10:04:17Z) - Energy Efficient Edge Computing: When Lyapunov Meets Distributed
Reinforcement Learning [12.845204986571053]
本研究では,エッジコンピューティングによるエネルギー効率のよいオフロード問題について検討する。
考慮されたシナリオでは、複数のユーザが同時に無線およびエッジコンピューティングリソースを競う。
提案されたソリューションは、ベンチマークアプローチと比較してネットワークのエネルギー効率を高めることもできます。
論文 参考訳(メタデータ) (2021-03-31T11:02:29Z) - Data-Driven Random Access Optimization in Multi-Cell IoT Networks with
NOMA [78.60275748518589]
非直交多重アクセス(NOMA)は、5Gネットワーク以降で大規模なマシンタイプ通信(mMTC)を可能にする重要な技術です。
本稿では,高密度空間分散マルチセル無線IoTネットワークにおけるランダムアクセス効率向上のために,NOMAを適用した。
ユーザ期待容量の幾何学的平均を最大化するために,各IoTデバイスの伝送確率を調整したランダムチャネルアクセス管理の新たな定式化を提案する。
論文 参考訳(メタデータ) (2021-01-02T15:21:08Z) - Resource Allocation via Model-Free Deep Learning in Free Space Optical
Communications [119.81868223344173]
本稿では,自由空間光学(FSO)通信におけるチャネルフェージング効果の緩和のための資源配分の一般的な問題について検討する。
本フレームワークでは,FSO資源割り当て問題を解決する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-27T17:38:51Z) - Risk-Aware Energy Scheduling for Edge Computing with Microgrid: A
Multi-Agent Deep Reinforcement Learning Approach [82.6692222294594]
マイクログリッドを用いたMECネットワークにおけるリスク対応エネルギースケジューリング問題について検討する。
ニューラルネットワークを用いたマルチエージェントディープ強化学習(MADRL)に基づくアドバンテージアクター・クリティック(A3C)アルゴリズムを適用し,その解を導出する。
論文 参考訳(メタデータ) (2020-02-21T02:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。