論文の概要: Reinforcement Learning-based Dynamic Service Placement in Vehicular
Networks
- arxiv url: http://arxiv.org/abs/2105.15022v2
- Date: Tue, 1 Jun 2021 13:38:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-02 14:45:08.657830
- Title: Reinforcement Learning-based Dynamic Service Placement in Vehicular
Networks
- Title(参考訳): 強化学習に基づく車両ネットワークにおける動的サービス配置
- Authors: Anum Talpur and Mohan Gurusamy
- Abstract要約: さまざまなタイプのサービスの要求におけるトラフィックモビリティパターンとダイナミックスの複雑さは、サービスの配置を困難なタスクにしました。
トラフィックモビリティやサービスのダイナミクスを考慮していないため、典型的な静的配置ソリューションは効果的ではありません。
本稿では,エッジサーバに最適なサービス配置を見つけるために,強化学習に基づく動的(RL-Dynamic)サービス配置フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.010371060637208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of technologies such as 5G and mobile edge computing has
enabled provisioning of different types of services with different resource and
service requirements to the vehicles in a vehicular network.The growing
complexity of traffic mobility patterns and dynamics in the requests for
different types of services has made service placement a challenging task. A
typical static placement solution is not effective as it does not consider the
traffic mobility and service dynamics. In this paper, we propose a
reinforcement learning-based dynamic (RL-Dynamic) service placement framework
to find the optimal placement of services at the edge servers while considering
the vehicle's mobility and dynamics in the requests for different types of
services. We use SUMO and MATLAB to carry out simulation experiments. In our
learning framework, for the decision module, we consider two alternative
objective functions-minimizing delay and minimizing edge server utilization. We
developed an ILP based problem formulation for the two objective functions. The
experimental results show that 1) compared to static service placement,
RL-based dynamic service placement achieves fair utilization of edge server
resources and low service delay, and 2) compared to delay-optimized placement,
server utilization optimized placement utilizes resources more effectively,
achieving higher fairness with lower edge-server utilization.
- Abstract(参考訳): 5Gやモバイルエッジコンピューティングといった技術が出現すると、車載ネットワーク内の車両に異なるリソースとサービス要件を持つ異なるタイプのサービスのプロビジョニングが可能となり、さまざまなタイプのサービスの要求に対するトラフィックモビリティパターンとダイナミックスの複雑さが増し、サービスの配置が困難な課題となっている。
典型的な静的配置ソリューションは、トラフィック移動性とサービスダイナミクスを考慮していないため、効果的ではない。
本稿では,車両の移動性や動的性を考慮しつつ,エッジサーバに最適なサービス配置を求めるための強化学習型動的(RL-Dynamic)サービス配置フレームワークを提案する。
シミュレーション実験にはSUMOとMATLABを用いる。
学習フレームワークでは,決定モジュールに対して,遅延最小化とエッジサーバ利用最小化という2つの目的関数を検討する。
2つの目的関数に対するILPに基づく問題定式化を開発した。
実験の結果,1)静的サービス配置と比較して,RLベースの動的サービス配置はエッジサーバリソースの公平な利用とサービス遅延の低減を実現し,2)遅延最適化配置と比較して,サーバ利用最適化配置はリソースをより効果的に活用し,エッジサーバ利用率を低くする。
関連論文リスト
- Resource Allocation for Twin Maintenance and Computing Task Processing in Digital Twin Vehicular Edge Computing Network [48.15151800771779]
車両エッジコンピューティング(VEC)は、車両の近くにVECサーバを配置することで、計算キャッシュサービスを提供する。
しかしながら、VECネットワークは、ハイカーモビリティのような課題に直面している。
本研究では,ネットワーク内のツイン処理による2種類の遅延について検討した。
論文 参考訳(メタデータ) (2024-07-10T12:08:39Z) - DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - A Learning-based Incentive Mechanism for Mobile AIGC Service in Decentralized Internet of Vehicles [49.86094523878003]
モバイルAIGCサービスアロケーションのための分散インセンティブ機構を提案する。
我々は、AIGCサービスのRSUへの供給と、IoVコンテキスト内のサービスに対するユーザ要求のバランスを見つけるために、マルチエージェントの深層強化学習を採用している。
論文 参考訳(メタデータ) (2024-03-29T12:46:07Z) - Edge computing service deployment and task offloading based on
multi-task high-dimensional multi-objective optimization [5.64850919046892]
本研究では,マルチユーザ環境におけるサービス展開とタスクオフロードの課題について検討する。
レイテンシ、エネルギー消費、コストを考慮せずに安定したサービス提供を確保するために、ネットワークの信頼性も組み込まれている。
エッジサーバの適切な使用を促進するため、第4のタスクオフロード目的としてロードバランシングを導入している。
論文 参考訳(メタデータ) (2023-12-07T07:30:47Z) - Real-time Control of Electric Autonomous Mobility-on-Demand Systems via Graph Reinforcement Learning [14.073588678179865]
エレクトロニック・モビリティ・オン・デマンド(E-AMoD)は、いくつかのリアルタイムな意思決定を行う必要がある。
強化学習のレンズによるE-AMoD制御問題を提案する。
本稿では,拡張性を大幅に向上し,性能の最適化に優れるグラフネットワークベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-09T22:57:21Z) - Adaptive Resource Allocation for Virtualized Base Stations in O-RAN with
Online Learning [60.17407932691429]
基地局(vBS)を備えたオープンラジオアクセスネットワークシステムは、柔軟性の向上、コスト削減、ベンダーの多様性、相互運用性のメリットを提供する。
本研究では,予期せぬ「混み合う」環境下であっても,効率的なスループットとvBSエネルギー消費のバランスをとるオンライン学習アルゴリズムを提案する。
提案手法は, 課題のある環境においても, 平均最適性ギャップをゼロにすることで, サブ線形後悔を実現する。
論文 参考訳(メタデータ) (2023-09-04T17:30:21Z) - Dynamic Resource Allocation for Metaverse Applications with Deep
Reinforcement Learning [64.75603723249837]
そこで本研究では,Metaverse アプリケーション用の異なるタイプのリソースを動的に管理・割り当てする新しいフレームワークを提案する。
まず,アプリケーション間で共通関数を共有できるMetaInstancesという,アプリケーションをグループに分割する効果的なソリューションを提案する。
そこで我々は,要求到着プロセスとアプリケーション離脱プロセスのリアルタイム,動的,不確実な特性を捉えるために,セミマルコフ決定プロセスに基づくフレームワークを開発する。
論文 参考訳(メタデータ) (2023-02-27T00:30:01Z) - Knowledge Transfer in Deep Reinforcement Learning for Slice-Aware
Mobility Robustness Optimization [0.8937905773981699]
深い強化学習に基づくスライス・アウェア・モビリティ・ロバストネス最適化(SAMRO)手法を提案する。
スライス固有のハンドオーバパラメータを最適化することで、スライス毎のサービス保証によるハンドオーバパフォーマンスを向上させる。
1) オフライン強化学習の正規化,2) 複合体験リプレイによる効果的なオンライン微調整。
論文 参考訳(メタデータ) (2022-03-07T09:26:15Z) - DRLD-SP: A Deep Reinforcement Learning-based Dynamic Service Placement
in Edge-Enabled Internet of Vehicles [4.010371060637208]
5Gとエッジコンピューティングは、車載インターネット(IoV)の出現を可能にした
エッジでの限られたリソース、車両の高モビリティ、需要の増加、サービス要求タイプの動的性は、サービスの配置を困難なタスクにしました。
トラフィックモビリティやサービスのダイナミクスを考慮していないため、典型的な静的配置ソリューションは効果的ではありません。
本稿では,最大エッジリソース使用量とサービス遅延を最小限に抑えることを目的とした,Deep Reinforcement Learningに基づく動的サービス配置フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-11T10:17:27Z) - Multi-Exit Semantic Segmentation Networks [78.44441236864057]
本稿では,最先端セグメンテーションモデルをMESSネットワークに変換するフレームワークを提案する。
パラメトリド早期出口を用いた特別訓練されたCNNは、より簡単なサンプルの推測時に、その深さに沿って保存する。
接続されたセグメンテーションヘッドの数、配置、アーキテクチャとエグジットポリシーを併用して、デバイス機能とアプリケーション固有の要件に適応する。
論文 参考訳(メタデータ) (2021-06-07T11:37:03Z) - AI-based Resource Allocation: Reinforcement Learning for Adaptive
Auto-scaling in Serverless Environments [0.0]
近年、サーバーレスコンピューティングはクラウドコンピューティングモデルの魅力的な新しいパラダイムとして現れています。
商用およびオープンソースのサーバレスコンピューティングプラットフォームに共通するアプローチは、ワークロードベースの自動スケーリングである。
本稿では、サーバーレスフレームワークにおける要求ベース自動スケーリングに対する強化学習アプローチの適用性について検討する。
論文 参考訳(メタデータ) (2020-05-29T06:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。