論文の概要: Communication-Efficient Orchestrations for URLLC Service via
Hierarchical Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2307.13415v1
- Date: Tue, 25 Jul 2023 11:23:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 17:25:14.780824
- Title: Communication-Efficient Orchestrations for URLLC Service via
Hierarchical Reinforcement Learning
- Title(参考訳): 階層的強化学習によるURLLCサービスのための通信効率の良いオーケストレーション
- Authors: Wei Shi, Milad Ganjalizadeh, Hossein Shokri Ghadikolaei, Marina
Petrova
- Abstract要約: 制御ループの時間スケールが異なるマルチレベルポリシーの実装を可能にするマルチエージェント階層型RL(HRL)フレームワークを提案する。
従来技術のユースケースでは、HRLフレームワークを用いて、産業機器の最大送電量と送電電力を最適化した。
- 参考スコア(独自算出の注目度): 14.604814002402588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ultra-reliable low latency communications (URLLC) service is envisioned to
enable use cases with strict reliability and latency requirements in 5G. One
approach for enabling URLLC services is to leverage Reinforcement Learning (RL)
to efficiently allocate wireless resources. However, with conventional RL
methods, the decision variables (though being deployed at various network
layers) are typically optimized in the same control loop, leading to
significant practical limitations on the control loop's delay as well as
excessive signaling and energy consumption. In this paper, we propose a
multi-agent Hierarchical RL (HRL) framework that enables the implementation of
multi-level policies with different control loop timescales. Agents with faster
control loops are deployed closer to the base station, while the ones with
slower control loops are at the edge or closer to the core network providing
high-level guidelines for low-level actions. On a use case from the prior art,
with our HRL framework, we optimized the maximum number of retransmissions and
transmission power of industrial devices. Our extensive simulation results on
the factory automation scenario show that the HRL framework achieves better
performance as the baseline single-agent RL method, with significantly less
overhead of signal transmissions and delay compared to the one-agent RL
methods.
- Abstract(参考訳): 超信頼性の低い低レイテンシ通信(URLLC)サービスは、5Gで厳格な信頼性とレイテンシ要件を持つユースケースを可能にするために計画されている。
URLLCサービスを有効にするための1つのアプローチは、強化学習(RL)を利用して無線リソースを効率的に割り当てることである。
しかし、従来のRL法では、決定変数(様々なネットワーク層に展開されているが)は一般的に同じ制御ループで最適化され、制御ループの遅延や過度な信号処理やエネルギー消費に重大な制約が生じる。
本稿では、制御ループの時間スケールが異なるマルチレベルポリシーの実装を可能にするマルチエージェント階層型RL(HRL)フレームワークを提案する。
制御ループが速いエージェントは基地局の近くに配置され、制御ループが遅いエージェントはコアネットワークのエッジか近くにあり、低レベルのアクションのための高レベルなガイドラインを提供する。
従来技術のユースケースでは、HRLフレームワークを用いて、産業機器の最大送電量と送電電力を最適化した。
ファクトリ自動化シナリオにおける大規模なシミュレーション結果から,HRLフレームワークは信号伝送のオーバーヘッドと遅延を1エージェントRL法に比べて大幅に低減し,ベースライン単エージェントRL法として優れた性能を発揮することが示された。
関連論文リスト
- Event-Triggered Reinforcement Learning Based Joint Resource Allocation for Ultra-Reliable Low-Latency V2X Communications [10.914558012458425]
6G対応車載ネットワークは、安全クリティカルな情報をタイムリーに提供するための低遅延通信(URLLC)を確保するという課題に直面している。
車両間通信システム(V2X)の従来のリソース割り当てスキームは、従来の復号法に基づくアルゴリズムに依存している。
論文 参考訳(メタデータ) (2024-07-18T23:55:07Z) - GuideLight: "Industrial Solution" Guidance for More Practical Traffic Signal Control Agents [12.497518428553734]
強化学習(RL)に基づく交通信号制御(TSC)法は,従来の手法よりも優れていることが証明されている。
しかし、ほとんどのRL法は、入力、出力、サイクル-フロー関係という3つの要因により、実世界で適用した場合に困難に直面している。
我々は、RLエージェントをガイドする業界ソリューションを提案する。
論文 参考訳(メタデータ) (2024-07-15T15:26:10Z) - ArCHer: Training Language Model Agents via Hierarchical Multi-Turn RL [80.10358123795946]
大規模言語モデルを微調整するためのマルチターンRLアルゴリズムを構築するためのフレームワークを開発する。
我々のフレームワークは階層的なRLアプローチを採用し、2つのRLアルゴリズムを並列に実行している。
実験により,ArCHerはエージェントタスクの効率と性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-02-29T18:45:56Z) - Deployable Reinforcement Learning with Variable Control Rate [14.838483990647697]
可変制御率を持つ強化学習(RL)の変種を提案する。
このアプローチでは、ポリシーは、エージェントが取るべきアクションと、そのアクションに関連する時間ステップの期間を決定する。
ニュートンキネマティクスを用いたエージェントを駆動する概念実証シミュレーションによりSEACの有効性を示す。
論文 参考訳(メタデータ) (2024-01-17T15:40:11Z) - Safe and Accelerated Deep Reinforcement Learning-based O-RAN Slicing: A
Hybrid Transfer Learning Approach [20.344810727033327]
我々は,DRLをベースとしたO-RANスライシングにおいて,安全かつ迅速な収束を実現するためのハイブリッドTL支援手法を提案し,設計する。
提案されたハイブリッドアプローチは、少なくとも7.7%と20.7%は、平均的な初期報酬値と収束シナリオの割合を改善している。
論文 参考訳(メタデータ) (2023-09-13T18:58:34Z) - Sparsity-Aware Intelligent Massive Random Access Control in Open RAN: A
Reinforcement Learning Based Approach [61.74489383629319]
新たなOpen Radio Access Network(O-RAN)におけるデバイスの大量ランダムアクセスは、アクセス制御と管理に大きな課題をもたらします。
閉ループアクセス制御の強化学習(RL)支援方式を提案する。
深部RL支援SAUDは、連続的かつ高次元の状態と行動空間を持つ複雑な環境を解決するために提案されている。
論文 参考訳(メタデータ) (2023-03-05T12:25:49Z) - Distributed-Training-and-Execution Multi-Agent Reinforcement Learning
for Power Control in HetNet [48.96004919910818]
We propose a multi-agent Deep reinforcement learning (MADRL) based power control scheme for the HetNet。
エージェント間の協調を促進するために,MADRLシステムのためのペナルティベースQラーニング(PQL)アルゴリズムを開発した。
このように、エージェントのポリシーは、他のエージェントによってより容易に学習でき、より効率的なコラボレーションプロセスをもたらす。
論文 参考訳(メタデータ) (2022-12-15T17:01:56Z) - Fair and Efficient Distributed Edge Learning with Hybrid Multipath TCP [62.81300791178381]
無線による分散エッジ学習のボトルネックは、コンピューティングから通信へと移行した。
DEL用の既存のTCPベースのデータネットワークスキームは、アプリケーションに依存しず、アプリケーション層要求に応じて調整を施さない。
DELのためのモデルベースと深部強化学習(DRL)に基づくMP TCPを組み合わせたハイブリッドマルチパスTCP(MP TCP)を開発した。
論文 参考訳(メタデータ) (2022-11-03T09:08:30Z) - FORLORN: A Framework for Comparing Offline Methods and Reinforcement
Learning for Optimization of RAN Parameters [0.0]
本稿では,ネットワーク環境におけるRLエージェントの性能をns-3でシミュレートする新しいフレームワークを提案する。
このフレームワークでは、ドメイン固有の知識を持たないRLエージェントが、静的シナリオにおけるオフライン最適化に適合するように、Radio Access Network(RAN)パラメータを効率的に調整する方法を学習できることを実証する。
論文 参考訳(メタデータ) (2022-09-08T12:58:09Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - Plan Better Amid Conservatism: Offline Multi-Agent Reinforcement
Learning with Actor Rectification [74.10976684469435]
オフライン強化学習(RL)アルゴリズムは、直接マルチエージェント設定に転送することができる。
本稿では,この重要な課題に対処するために,Actor Rectification (OMAR) を用いたオフラインマルチエージェント RL を提案する。
OMARはマルチエージェント連続制御ベンチマークにおける最先端性能と強いベースラインを著しく上回る。
論文 参考訳(メタデータ) (2021-11-22T13:27:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。