論文の概要: A Deep RL Approach on Task Placement and Scaling of Edge Resources for Cellular Vehicle-to-Network Service Provisioning
- arxiv url: http://arxiv.org/abs/2305.09832v3
- Date: Thu, 05 Dec 2024 11:23:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:36:41.614285
- Title: A Deep RL Approach on Task Placement and Scaling of Edge Resources for Cellular Vehicle-to-Network Service Provisioning
- Title(参考訳): セルラー車間通信サービス提供のためのエッジリソースのタスク配置とスケーリングに関する深部RLアプローチ
- Authors: Cyril Shih-Huan Hsu, Jorge Martín-Pérez, Danny De Vleeschauwer, Luca Valcarenghi, Xi Li, Chrysa Papagianni,
- Abstract要約: エッジリソースのサービスタスク配置とスケーリングの相互依存問題に対処する。
本稿では,ハイブリッド行動空間で動作する新しいDeep Reinforcement Learning (DRL) アプローチを提案する。
実世界のC-V2Nトラフィックデータセットを用いたシミュレーションによりDHPGの性能を評価する。
- 参考スコア(独自算出の注目度): 6.756220853104791
- License:
- Abstract: Cellular-Vehicle-to-Everything (C-V2X) is currently at the forefront of the digital transformation of our society. By enabling vehicles to communicate with each other and with the traffic environment using cellular networks, we redefine transportation, improving road safety and transportation services, increasing efficiency of vehicular traffic flows, and reducing environmental impact. To effectively facilitate the provisioning of Cellular Vehicular-to-Network (C-V2N) services, we tackle the interdependent problems of service task placement and scaling of edge resources. Specifically, we formulate the joint problem and prove that it is not computationally tractable. To address its complexity we propose Deep Hybrid Policy Gradient (DHPG), a new Deep Reinforcement Learning (DRL) approach that operates in hybrid action spaces, enabling holistic decision-making and enhancing overall performance. We evaluated the performance of DHPG using simulations with a real-world C-V2N traffic dataset, comparing it to several state-of-the-art (SoA) solutions. DHPG outperforms these solutions, guaranteeing the $99^{th}$ percentile of C-V2N service delay target, while simultaneously optimizing the utilization of computing resources. Finally, time complexity analysis is conducted to verify that the proposed approach can support real-time C-V2N services.
- Abstract(参考訳): セルラーVehicle-to-Everything(C-V2X)は現在、私たちの社会のデジタルトランスフォーメーションの最前線にいます。
車両がセルラーネットワークを使って相互に交通環境と通信できるようにすることで、輸送を再定義し、道路の安全と交通サービスを改善し、車両交通の効率を向上し、環境への影響を低減する。
セルラーV2N(Cellular Vehicular-to-Network)サービスのプロビジョニングを容易にするため,サービスタスク配置とエッジリソースのスケーリングの相互依存問題に対処する。
具体的には、結合問題を定式化し、計算的に計算可能でないことを証明する。
DHPG(Deep Hybrid Policy Gradient)は、ハイブリッドアクション空間で動作する新しいDeep Reinforcement Learning(DRL)アプローチであり、全体的な意思決定を可能にし、全体的なパフォーマンスを向上させる。
実世界のC-V2Nトラフィックデータセットを用いたシミュレーションによるDHPGの性能評価を行い,いくつかのSoA(State-of-the-art)ソリューションと比較した。
DHPGはこれらのソリューションより優れており、C-V2Nサービス遅延ターゲットの99$%が保証され、同時にコンピューティングリソースの利用を最適化している。
最後に,提案手法がリアルタイムC-V2Nサービスをサポート可能であることを確認するために,時間複雑性解析を行った。
関連論文リスト
- Communication-Aware Consistent Edge Selection for Mobile Users and Autonomous Vehicles [1.2453219864236245]
時間に敏感で計算集約的なタスクをオフロードすることで、サービスの効率が向上する。
本稿では,Deep Deterministic Policy Gradient (DDPG)アルゴリズムに基づく深層強化学習フレームワークを提案する。
計算負荷, サービス遅延, 割り込みを最小限に抑えるために, APの通信と切替の同時割り当て方式を提案する。
論文 参考訳(メタデータ) (2024-08-06T20:21:53Z) - Resource Allocation for Twin Maintenance and Computing Task Processing in Digital Twin Vehicular Edge Computing Network [48.15151800771779]
車両エッジコンピューティング(VEC)は、車両の近くにVECサーバを配置することで、計算キャッシュサービスを提供する。
しかしながら、VECネットワークは、ハイカーモビリティのような課題に直面している。
本研究では,ネットワーク内のツイン処理による2種類の遅延について検討した。
論文 参考訳(メタデータ) (2024-07-10T12:08:39Z) - Deep-Reinforcement-Learning-Based AoI-Aware Resource Allocation for RIS-Aided IoV Networks [43.443526528832145]
車両間通信(V2X)方式を考慮したRIS支援車両インターネット(IoV)を提案する。
車両間リンク(V2I)のタイムラインと車両間リンク(V2V)の安定性を改善するため,情報量(AoI)モデルとペイロード伝達確率モデルを導入する。
論文 参考訳(メタデータ) (2024-06-17T06:16:07Z) - DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - Scheduling Out-of-Coverage Vehicular Communications Using Reinforcement
Learning [3.058685580689605]
本稿では,VRLS(Vehicular Reinforcement Learning Scheduler)を提案する。
移動性,ネットワーク負荷,無線チャネル,資源構成の異なるVRLSの性能を評価する。
論文 参考訳(メタデータ) (2022-07-13T22:47:48Z) - AI-aided Traffic Control Scheme for M2M Communications in the Internet
of Vehicles [61.21359293642559]
交通のダイナミクスと異なるIoVアプリケーションの異種要求は、既存のほとんどの研究では考慮されていない。
本稿では,ハイブリッド交通制御方式とPPO法を併用して検討する。
論文 参考訳(メタデータ) (2022-03-05T10:54:05Z) - An Energy Consumption Model for Electrical Vehicle Networks via Extended
Federated-learning [50.85048976506701]
本稿では,フェデレートラーニングモデルに基づく不安度を測る新しい手法を提案する。
バッテリー消費を推定し、車両ネットワークにエネルギー効率の高いルートプランニングを提供する。
論文 参考訳(メタデータ) (2021-11-13T15:03:44Z) - Computation Offloading in Heterogeneous Vehicular Edge Networks: On-line
and Off-policy Bandit Solutions [30.606518785629046]
高速変動車体環境では、ネットワークの混雑によりオフロードの遅延が発生する。
本稿では,バンディット理論に基づくオンラインアルゴリズムと非政治学習アルゴリズムを提案する。
提案手法は,最も混雑の少ないネットワークを選択することで,ネットワークのトラフィック変化に適応することを示す。
論文 参考訳(メタデータ) (2020-08-14T11:48:13Z) - Data Freshness and Energy-Efficient UAV Navigation Optimization: A Deep
Reinforcement Learning Approach [88.45509934702913]
我々は、移動基地局(BS)が配備される複数の無人航空機(UAV)のナビゲーションポリシーを設計する。
我々は、地上BSにおけるデータの鮮度を確保するために、エネルギーや情報年齢(AoI)の制約などの異なる文脈情報を組み込んだ。
提案したトレーニングモデルを適用することで、UAV-BSに対する効果的なリアルタイム軌道ポリシーは、時間とともに観測可能なネットワーク状態をキャプチャする。
論文 参考訳(メタデータ) (2020-02-21T07:29:15Z) - Reinforcement Learning Based Vehicle-cell Association Algorithm for
Highly Mobile Millimeter Wave Communication [53.47785498477648]
本稿では,ミリ波通信網における車とセルの関連性について検討する。
まず、ユーザ状態(VU)問題を離散的な非車両関連最適化問題として定式化する。
提案手法は,複数のベースライン設計と比較して,ユーザの複雑性とVUEの20%削減の合計で最大15%のゲインが得られる。
論文 参考訳(メタデータ) (2020-01-22T08:51:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。