論文の概要: Scheduling Out-of-Coverage Vehicular Communications Using Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2207.06537v1
- Date: Wed, 13 Jul 2022 22:47:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-16 06:52:19.485880
- Title: Scheduling Out-of-Coverage Vehicular Communications Using Reinforcement
Learning
- Title(参考訳): 強化学習を用いた車外コミュニケーションのスケジューリング
- Authors: Taylan \c{S}ahin, Ramin Khalili, Mate Boban, Adam Wolisz
- Abstract要約: 本稿では,VRLS(Vehicular Reinforcement Learning Scheduler)を提案する。
移動性,ネットワーク負荷,無線チャネル,資源構成の異なるVRLSの性能を評価する。
- 参考スコア(独自算出の注目度): 3.058685580689605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Performance of vehicle-to-vehicle (V2V) communications depends highly on the
employed scheduling approach. While centralized network schedulers offer high
V2V communication reliability, their operation is conventionally restricted to
areas with full cellular network coverage. In contrast, in
out-of-cellular-coverage areas, comparatively inefficient distributed radio
resource management is used. To exploit the benefits of the centralized
approach for enhancing the reliability of V2V communications on roads lacking
cellular coverage, we propose VRLS (Vehicular Reinforcement Learning
Scheduler), a centralized scheduler that proactively assigns resources for
out-of-coverage V2V communications \textit{before} vehicles leave the cellular
network coverage. By training in simulated vehicular environments, VRLS can
learn a scheduling policy that is robust and adaptable to environmental
changes, thus eliminating the need for targeted (re-)training in complex
real-life environments. We evaluate the performance of VRLS under varying
mobility, network load, wireless channel, and resource configurations. VRLS
outperforms the state-of-the-art distributed scheduling algorithm in zones
without cellular network coverage by reducing the packet error rate by half in
highly loaded conditions and achieving near-maximum reliability in low-load
scenarios.
- Abstract(参考訳): 車両間通信(v2v)の性能はスケジューリング手法に大きく依存する。
集中型ネットワークスケジューラは高いv2v通信信頼性を提供するが、従来は完全なセルラーネットワークカバレッジを持つ領域に限られる。
対照的に、細胞外被覆領域では、比較的非効率な分散無線資源管理が用いられる。
セルラーネットワークを欠いた道路におけるV2V通信の信頼性を高めるための集中型アプローチの利点を生かし,セルラーネットワークを離脱するV2V通信のためのリソースを積極的に割り当てる集中型スケジューラであるVRLS(Vehicular Reinforcement Learning Scheduler)を提案する。
シミュレーションされた車載環境でのトレーニングにより、VRLSは環境変化に頑健で適応可能なスケジューリングポリシーを学ぶことができ、複雑な実環境においてターゲット(再訓練)の必要性を排除できる。
移動性,ネットワーク負荷,無線チャネル,資源構成の異なるVRLSの性能を評価する。
vrlsは、高負荷条件でパケットエラー率を半分削減し、低負荷シナリオで最大信頼性を達成することにより、セルネットワークカバレッジのないゾーンにおいて最先端の分散スケジューリングアルゴリズムを上回っている。
関連論文リスト
- Communication-Aware Consistent Edge Selection for Mobile Users and Autonomous Vehicles [1.2453219864236245]
時間に敏感で計算集約的なタスクをオフロードすることで、サービスの効率が向上する。
本稿では,Deep Deterministic Policy Gradient (DDPG)アルゴリズムに基づく深層強化学習フレームワークを提案する。
計算負荷, サービス遅延, 割り込みを最小限に抑えるために, APの通信と切替の同時割り当て方式を提案する。
論文 参考訳(メタデータ) (2024-08-06T20:21:53Z) - Joint Optimization of Age of Information and Energy Consumption in NR-V2X System based on Deep Reinforcement Learning [13.62746306281161]
5Gニューラジオ(NR)技術に基づくV2X仕様。
モード2サイドリンク(SL)通信はLTE-V2Xのモード4に似ており、車両間の直接通信を可能にする。
この影響を緩和するために 干渉キャンセル法が使われています。
論文 参考訳(メタデータ) (2024-07-11T12:54:38Z) - Graph Neural Networks and Deep Reinforcement Learning Based Resource Allocation for V2X Communications [43.443526528832145]
本稿では,グラフニューラルネットワーク(GNN)と深層強化学習(DRL)を統合する手法を提案する。
通信リンクをノードとする動的グラフを構築することにより、V2V通信における高い成功率を確保することを目指している。
提案手法は,GNNのグローバルな特徴学習能力を維持し,分散ネットワーク展開をサポートする。
論文 参考訳(メタデータ) (2024-07-09T03:14:11Z) - Deep-Reinforcement-Learning-Based AoI-Aware Resource Allocation for RIS-Aided IoV Networks [43.443526528832145]
車両間通信(V2X)方式を考慮したRIS支援車両インターネット(IoV)を提案する。
車両間リンク(V2I)のタイムラインと車両間リンク(V2V)の安定性を改善するため,情報量(AoI)モデルとペイロード伝達確率モデルを導入する。
論文 参考訳(メタデータ) (2024-06-17T06:16:07Z) - Adaptive Resource Allocation for Virtualized Base Stations in O-RAN with
Online Learning [60.17407932691429]
基地局(vBS)を備えたオープンラジオアクセスネットワークシステムは、柔軟性の向上、コスト削減、ベンダーの多様性、相互運用性のメリットを提供する。
本研究では,予期せぬ「混み合う」環境下であっても,効率的なスループットとvBSエネルギー消費のバランスをとるオンライン学習アルゴリズムを提案する。
提案手法は, 課題のある環境においても, 平均最適性ギャップをゼロにすることで, サブ線形後悔を実現する。
論文 参考訳(メタデータ) (2023-09-04T17:30:21Z) - A Deep RL Approach on Task Placement and Scaling of Edge Resources for Cellular Vehicle-to-Network Service Provisioning [6.625994697789603]
エッジリソースのサービスタスク配置とスケーリングの相互依存問題に対処する。
本稿では,ハイブリッド行動空間に対するDHPG(Deep Reinforcement Learning)アプローチを提案する。
DHPGの性能は、実世界のC-V2Nトラフィックデータセットを用いたシミュレーションにより、いくつかの最先端(SoA)ソリューションに対して評価される。
論文 参考訳(メタデータ) (2023-05-16T22:19:19Z) - AI-aided Traffic Control Scheme for M2M Communications in the Internet
of Vehicles [61.21359293642559]
交通のダイナミクスと異なるIoVアプリケーションの異種要求は、既存のほとんどの研究では考慮されていない。
本稿では,ハイブリッド交通制御方式とPPO法を併用して検討する。
論文 参考訳(メタデータ) (2022-03-05T10:54:05Z) - An Energy Consumption Model for Electrical Vehicle Networks via Extended
Federated-learning [50.85048976506701]
本稿では,フェデレートラーニングモデルに基づく不安度を測る新しい手法を提案する。
バッテリー消費を推定し、車両ネットワークにエネルギー効率の高いルートプランニングを提供する。
論文 参考訳(メタデータ) (2021-11-13T15:03:44Z) - Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications [69.24726496448713]
本稿では,AVの最適決定を支援するために,マルコフ決定プロセス(MDP)に基づくインテリジェントな最適化フレームワークを提案する。
そこで我々は,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,AVの最適方針を見出す。
提案手法は,従来の深部強化学習手法と比較して,AVによる障害物ミス検出確率を最大67%削減することを示す。
論文 参考訳(メタデータ) (2021-05-28T08:45:37Z) - Deep Learning-based Resource Allocation For Device-to-Device
Communication [66.74874646973593]
デバイス間通信(D2D)を用いたマルチチャネルセルシステムにおいて,リソース割り当ての最適化のためのフレームワークを提案する。
任意のチャネル条件に対する最適な資源配分戦略をディープニューラルネットワーク(DNN)モデルにより近似する深層学習(DL)フレームワークを提案する。
シミュレーションの結果,提案手法のリアルタイム性能を低速で実現できることが確認された。
論文 参考訳(メタデータ) (2020-11-25T14:19:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。