論文の概要: A Deep RL Approach on Task Placement and Scaling of Edge Resources for
Cellular Vehicle-to-Network Service Provisioning
- arxiv url: http://arxiv.org/abs/2305.09832v1
- Date: Tue, 16 May 2023 22:19:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 18:22:06.455356
- Title: A Deep RL Approach on Task Placement and Scaling of Edge Resources for
Cellular Vehicle-to-Network Service Provisioning
- Title(参考訳): セルラー車間通信サービス提供のためのエッジリソースのタスク配置とスケーリングに関する深部RLアプローチ
- Authors: Cyril Shih-Huan Hsu, Jorge Mart\'in-P\'erez, Danny De Vleeschauwer,
Koteswararao Kondepu, Luca Valcarenghi, Xi Li, Chrysa Papagianni
- Abstract要約: 本稿では,C-V2N(Cellular Vehicular-to-Network)サービス提供のための分散型アプローチを提案する。
サービスタスクの配置とエッジリソースのスケーリングの両立した問題に対処する。
スケーリングエージェントに焦点をあてて、いくつかのState-of-the-Artスケーリングアプローチに対して、我々のアプローチのパフォーマンスをベンチマークする。
- 参考スコア(独自算出の注目度): 7.478068133366626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cellular-Vehicle-to-Everything (C-V2X) is currently at the forefront of the
digital transformation of our society. By enabling vehicles to communicate with
each other and with the traffic environment using cellular networks, we
redefine transportation, improving road safety and transportation services,
increasing efficiency of traffic flows, and reducing environmental impact. This
paper proposes a decentralized approach for provisioning Cellular
Vehicular-to-Network (C-V2N) services, addressing the coupled problems of
service task placement and scaling of edge resources. We formalize the joint
problem and prove its complexity. We propose an approach to tackle it, linking
the two problems, employing decentralized decision-making using (i) a greedy
approach for task placement and (ii) a Deep Deterministic Policy Gradient
(DDPG) based approach for scaling. We benchmark the performance of our
approach, focusing on the scaling agent, against several State-of-the-Art (SoA)
scaling approaches via simulations using a real C-V2N traffic data set. The
results show that DDPG-based solutions outperform SoA solutions, keeping the
latency experienced by the C-V2N service below the target delay while
optimizing the use of computing resources. By conducting a complexity analysis,
we prove that DDPG-based solutions achieve runtimes in the range of
sub-milliseconds, meeting the strict latency requirements of C-V2N services.
- Abstract(参考訳): セルラーVehicle-to-Everything(C-V2X)は現在、私たちの社会のデジタルトランスフォーメーションの最前線にいます。
車両がセルラーネットワークを用いて交通環境と通信できるようにすることで,交通の便宜,道路安全・交通サービスの改善,交通流の効率化,環境への影響の低減を図る。
本稿では,C-V2N(Cellular Vehicular-to-Network)サービスを分散的に提供し,サービスタスク配置とエッジリソースのスケーリングという課題に対処する手法を提案する。
我々は共同問題を形式化し、その複雑さを証明する。
そこで我々は,2つの問題をリンクして,分散的意思決定を用いたアプローチを提案する。
(i)課題配置に対する欲望のあるアプローチ
(ii)スケーリングのためのDeep Deterministic Policy Gradient(DDPG)ベースのアプローチ。
我々は,実際のC-V2Nトラヒックデータセットを用いたシミュレーションにより,提案手法の性能をベンチマークし,スケーリングエージェントに着目した。
その結果、ddpgベースのソリューションはsoaソリューションよりも優れており、c-v2nサービスがターゲットの遅延よりもレイテンシを保ちながら、コンピューティングリソースの使用を最適化していることがわかった。
複雑度解析により,DDPGをベースとしたソリューションが,C-V2Nサービスの厳格なレイテンシ要件を満たすために,ミリ秒未満のランタイムを実現することを示す。
関連論文リスト
- Communication-Aware Consistent Edge Selection for Mobile Users and Autonomous Vehicles [1.2453219864236245]
時間に敏感で計算集約的なタスクをオフロードすることで、サービスの効率が向上する。
本稿では,Deep Deterministic Policy Gradient (DDPG)アルゴリズムに基づく深層強化学習フレームワークを提案する。
計算負荷, サービス遅延, 割り込みを最小限に抑えるために, APの通信と切替の同時割り当て方式を提案する。
論文 参考訳(メタデータ) (2024-08-06T20:21:53Z) - Resource Allocation for Twin Maintenance and Computing Task Processing in Digital Twin Vehicular Edge Computing Network [48.15151800771779]
車両エッジコンピューティング(VEC)は、車両の近くにVECサーバを配置することで、計算キャッシュサービスを提供する。
しかしながら、VECネットワークは、ハイカーモビリティのような課題に直面している。
本研究では,ネットワーク内のツイン処理による2種類の遅延について検討した。
論文 参考訳(メタデータ) (2024-07-10T12:08:39Z) - Deep-Reinforcement-Learning-Based AoI-Aware Resource Allocation for RIS-Aided IoV Networks [43.443526528832145]
車両間通信(V2X)方式を考慮したRIS支援車両インターネット(IoV)を提案する。
車両間リンク(V2I)のタイムラインと車両間リンク(V2V)の安定性を改善するため,情報量(AoI)モデルとペイロード伝達確率モデルを導入する。
論文 参考訳(メタデータ) (2024-06-17T06:16:07Z) - DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - Scheduling Out-of-Coverage Vehicular Communications Using Reinforcement
Learning [3.058685580689605]
本稿では,VRLS(Vehicular Reinforcement Learning Scheduler)を提案する。
移動性,ネットワーク負荷,無線チャネル,資源構成の異なるVRLSの性能を評価する。
論文 参考訳(メタデータ) (2022-07-13T22:47:48Z) - AI-aided Traffic Control Scheme for M2M Communications in the Internet
of Vehicles [61.21359293642559]
交通のダイナミクスと異なるIoVアプリケーションの異種要求は、既存のほとんどの研究では考慮されていない。
本稿では,ハイブリッド交通制御方式とPPO法を併用して検討する。
論文 参考訳(メタデータ) (2022-03-05T10:54:05Z) - An Energy Consumption Model for Electrical Vehicle Networks via Extended
Federated-learning [50.85048976506701]
本稿では,フェデレートラーニングモデルに基づく不安度を測る新しい手法を提案する。
バッテリー消費を推定し、車両ネットワークにエネルギー効率の高いルートプランニングを提供する。
論文 参考訳(メタデータ) (2021-11-13T15:03:44Z) - Computation Offloading in Heterogeneous Vehicular Edge Networks: On-line
and Off-policy Bandit Solutions [30.606518785629046]
高速変動車体環境では、ネットワークの混雑によりオフロードの遅延が発生する。
本稿では,バンディット理論に基づくオンラインアルゴリズムと非政治学習アルゴリズムを提案する。
提案手法は,最も混雑の少ないネットワークを選択することで,ネットワークのトラフィック変化に適応することを示す。
論文 参考訳(メタデータ) (2020-08-14T11:48:13Z) - Data Freshness and Energy-Efficient UAV Navigation Optimization: A Deep
Reinforcement Learning Approach [88.45509934702913]
我々は、移動基地局(BS)が配備される複数の無人航空機(UAV)のナビゲーションポリシーを設計する。
我々は、地上BSにおけるデータの鮮度を確保するために、エネルギーや情報年齢(AoI)の制約などの異なる文脈情報を組み込んだ。
提案したトレーニングモデルを適用することで、UAV-BSに対する効果的なリアルタイム軌道ポリシーは、時間とともに観測可能なネットワーク状態をキャプチャする。
論文 参考訳(メタデータ) (2020-02-21T07:29:15Z) - Reinforcement Learning Based Vehicle-cell Association Algorithm for
Highly Mobile Millimeter Wave Communication [53.47785498477648]
本稿では,ミリ波通信網における車とセルの関連性について検討する。
まず、ユーザ状態(VU)問題を離散的な非車両関連最適化問題として定式化する。
提案手法は,複数のベースライン設計と比較して,ユーザの複雑性とVUEの20%削減の合計で最大15%のゲインが得られる。
論文 参考訳(メタデータ) (2020-01-22T08:51:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。