論文の概要: Multi-Agent Reinforcement Learning for Channel Assignment and Power
Allocation in Platoon-Based C-V2X Systems
- arxiv url: http://arxiv.org/abs/2011.04555v2
- Date: Sun, 19 Jun 2022 22:26:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 02:21:19.886392
- Title: Multi-Agent Reinforcement Learning for Channel Assignment and Power
Allocation in Platoon-Based C-V2X Systems
- Title(参考訳): 小隊c-v2xシステムにおけるチャネル割り当てと電力割当のためのマルチエージェント強化学習
- Authors: Hung V. Vu, Mohammad Farzanullah, Zheyu Liu, Duy H. N. Nguyen, Robert
Morawski and Tho Le-Ngoc
- Abstract要約: 我々は,C-V2Xシステムにおける結合チャネル割り当てと電力配分の問題点を考察する。
提案する分散リソース割当アルゴリズムは,よく知られた網羅的探索アルゴリズムと比較して,近い性能を提供する。
- 参考スコア(独自算出の注目度): 15.511438222357489
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of joint channel assignment and power allocation in
underlaid cellular vehicular-to-everything (C-V2X) systems where multiple
vehicle-to-network (V2N) uplinks share the time-frequency resources with
multiple vehicle-to-vehicle (V2V) platoons that enable groups of connected and
autonomous vehicles to travel closely together. Due to the nature of high user
mobility in vehicular environment, traditional centralized optimization
approach relying on global channel information might not be viable in C-V2X
systems with large number of users. Utilizing a multi-agent reinforcement
learning (RL) approach, we propose a distributed resource allocation (RA)
algorithm to overcome this challenge. Specifically, we model the RA problem as
a multi-agent system. Based solely on the local channel information, each
platoon leader, acting as an agent, collectively interacts with each other and
accordingly selects the optimal combination of sub-band and power level to
transmit its signals. Toward this end, we utilize the double deep Q-learning
algorithm to jointly train the agents under the objectives of simultaneously
maximizing the sum-rate of V2N links and satisfying the packet delivery
probability of each V2V link in a desired latency limitation. Simulation
results show that our proposed RL-based algorithm provides a close performance
compared to that of the well-known exhaustive search algorithm.
- Abstract(参考訳): 本稿では、複数の車両間ネットワーク(V2N)アップリンクが複数の車両間ネットワーク(V2V)プラトン(V2V)と時間的リソースを共有し、接続された車両群と自律車両群が緊密に協調して移動できるようにする。
車両環境における高いユーザ移動性の性質から,グローバルチャネル情報に依存する従来の集中型最適化アプローチは,多数のユーザを持つC-V2Xシステムでは実現できない可能性がある。
マルチエージェント強化学習(RL)手法を用いて,この課題を克服するための分散リソース割り当て(RA)アルゴリズムを提案する。
具体的には,ra問題をマルチエージェントシステムとしてモデル化する。
ローカルチャネル情報のみに基づいて、エージェントとして振る舞う各小隊リーダーが集団で相互作用し、サブバンドと電力レベルの最適な組み合わせを選択して信号を送信する。
この目的に向けて、両深度Q-ラーニングアルゴリズムを用いて、V2Nリンクの総和レートを最大化し、所望のレイテンシ制限で各V2Vリンクのパケット配信確率を満たすことを目的としてエージェントを協調訓練する。
シミュレーションの結果,提案したRLに基づくアルゴリズムは,よく知られた網羅的探索アルゴリズムと比較して高い性能を示した。
関連論文リスト
- Semantic-Aware Resource Management for C-V2X Platooning via Multi-Agent Reinforcement Learning [28.375064269304975]
本稿では,マルチエージェント強化学習(MARL)を用いたマルチタスクのための意味認識型マルチモーダルリソースアロケーション(SAMRA)を提案する。
提案手法はセマンティック情報を利用して通信資源の割り当てを最適化する。
C-V2X小隊シナリオにおけるQoE(Quality of Experience)と通信効率の大幅な向上を実現している。
論文 参考訳(メタデータ) (2024-11-07T12:55:35Z) - Deep-Reinforcement-Learning-Based AoI-Aware Resource Allocation for RIS-Aided IoV Networks [43.443526528832145]
車両間通信(V2X)方式を考慮したRIS支援車両インターネット(IoV)を提案する。
車両間リンク(V2I)のタイムラインと車両間リンク(V2V)の安定性を改善するため,情報量(AoI)モデルとペイロード伝達確率モデルを導入する。
論文 参考訳(メタデータ) (2024-06-17T06:16:07Z) - DRL-Based RAT Selection in a Hybrid Vehicular Communication Network [2.345902601618188]
協調的なインテリジェントトランスポートシステムは、道路安全性を高めるために、V2X(Vager-to-Everything)の一連のアプリケーションに依存している。
新しいV2Xアプリケーションは、大量の共有データに依存し、高い信頼性、低エンドツーエンド(E2E)レイテンシ、高いスループットを必要とする。
本稿では、複数の無線アクセス技術(RAT)の性能を活用して、これらのアプリケーションのニーズを満たすインテリジェントでスケーラブルなハイブリッド車両通信アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-04-03T08:13:07Z) - Federated Reinforcement Learning for Resource Allocation in V2X Networks [46.6256432514037]
資源配分はV2Xネットワークの性能に大きな影響を及ぼす。
リソース割り当てのための既存のアルゴリズムのほとんどは、最適化や機械学習に基づいている。
本稿では,連合型強化学習の枠組みの下で,V2Xネットワークにおける資源配分について検討する。
論文 参考訳(メタデータ) (2023-10-15T15:26:54Z) - Multi-Resource Allocation for On-Device Distributed Federated Learning
Systems [79.02994855744848]
本研究は,デバイス上の分散フェデレーション学習(FL)システムにおいて,レイテンシとエネルギー消費の重み付け和を最小化する分散マルチリソース割り当て方式を提案する。
システム内の各モバイルデバイスは、指定された領域内でモデルトレーニングプロセスを実行し、それぞれパラメータの導出とアップロードを行うための計算と通信資源を割り当てる。
論文 参考訳(メタデータ) (2022-11-01T14:16:05Z) - An approach to implement Reinforcement Learning for Heterogeneous
Vehicular Networks [5.349238386983279]
ここでは、複数車両間(V2V)リンクは、他の車両間(V2I)および他のネットワークのスペクトルを再利用する。
MLベースのメソッドを実装するというアイデアは、すべての車両で分散的に実装できるように、ここで使用されています。
論文 参考訳(メタデータ) (2022-08-26T07:15:14Z) - Optimization for Master-UAV-powered Auxiliary-Aerial-IRS-assisted IoT
Networks: An Option-based Multi-agent Hierarchical Deep Reinforcement
Learning Approach [56.84948632954274]
本稿では,無人航空機(MUAV)搭載のIoT(Internet of Things)ネットワークについて検討する。
本稿では、インテリジェント反射面(IRS)を備えた充電可能な補助UAV(AUAV)を用いて、MUAVからの通信信号を強化することを提案する。
提案モデルでは,IoTネットワークの蓄積スループットを最大化するために,これらのエネルギー制限されたUAVの最適協調戦略について検討する。
論文 参考訳(メタデータ) (2021-12-20T15:45:28Z) - Transfer Learning in Multi-Agent Reinforcement Learning with Double
Q-Networks for Distributed Resource Sharing in V2X Communication [24.442174952832108]
本稿では,V2X通信ネットワークにおける分散スペクトル共有の問題に対処する。
目的は、V2IおよびV2Vリンクの資源効率の高い共存を提供することである。
論文 参考訳(メタデータ) (2021-07-13T15:50:10Z) - Deep Learning-based Resource Allocation For Device-to-Device
Communication [66.74874646973593]
デバイス間通信(D2D)を用いたマルチチャネルセルシステムにおいて,リソース割り当ての最適化のためのフレームワークを提案する。
任意のチャネル条件に対する最適な資源配分戦略をディープニューラルネットワーク(DNN)モデルにより近似する深層学習(DL)フレームワークを提案する。
シミュレーションの結果,提案手法のリアルタイム性能を低速で実現できることが確認された。
論文 参考訳(メタデータ) (2020-11-25T14:19:23Z) - Distributed Reinforcement Learning for Cooperative Multi-Robot Object
Manipulation [53.262360083572005]
強化学習(RL)を用いた協調型マルチロボットオブジェクト操作タスクの検討
分散近似RL(DA-RL)とゲーム理論RL(GT-RL)の2つの分散マルチエージェントRLアプローチを提案する。
本稿では, DA-RL と GT-RL を多エージェントシステムに適用し, 大規模システムへの拡張が期待される。
論文 参考訳(メタデータ) (2020-03-21T00:43:54Z) - Reinforcement Learning Based Vehicle-cell Association Algorithm for
Highly Mobile Millimeter Wave Communication [53.47785498477648]
本稿では,ミリ波通信網における車とセルの関連性について検討する。
まず、ユーザ状態(VU)問題を離散的な非車両関連最適化問題として定式化する。
提案手法は,複数のベースライン設計と比較して,ユーザの複雑性とVUEの20%削減の合計で最大15%のゲインが得られる。
論文 参考訳(メタデータ) (2020-01-22T08:51:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。