論文の概要: DRLD-SP: A Deep Reinforcement Learning-based Dynamic Service Placement
in Edge-Enabled Internet of Vehicles
- arxiv url: http://arxiv.org/abs/2106.06291v1
- Date: Fri, 11 Jun 2021 10:17:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-14 14:04:04.568222
- Title: DRLD-SP: A Deep Reinforcement Learning-based Dynamic Service Placement
in Edge-Enabled Internet of Vehicles
- Title(参考訳): DRLD-SP:エッジ対応車載インターネットにおける深層強化学習に基づく動的サービス配置
- Authors: Anum Talpur and Mohan Gurusamy
- Abstract要約: 5Gとエッジコンピューティングは、車載インターネット(IoV)の出現を可能にした
エッジでの限られたリソース、車両の高モビリティ、需要の増加、サービス要求タイプの動的性は、サービスの配置を困難なタスクにしました。
トラフィックモビリティやサービスのダイナミクスを考慮していないため、典型的な静的配置ソリューションは効果的ではありません。
本稿では,最大エッジリソース使用量とサービス遅延を最小限に抑えることを目的とした,Deep Reinforcement Learningに基づく動的サービス配置フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.010371060637208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growth of 5G and edge computing has enabled the emergence of Internet of
Vehicles. It supports different types of services with different resource and
service requirements. However, limited resources at the edge, high mobility of
vehicles, increasing demand, and dynamicity in service request-types have made
service placement a challenging task. A typical static placement solution is
not effective as it does not consider the traffic mobility and service
dynamics. Handling dynamics in IoV for service placement is an important and
challenging problem which is the primary focus of our work in this paper. We
propose a Deep Reinforcement Learning-based Dynamic Service Placement (DRLD-SP)
framework with the objective of minimizing the maximum edge resource usage and
service delay while considering the vehicle's mobility, varying demand, and
dynamics in the requests for different types of services. We use SUMO and
MATLAB to carry out simulation experiments. The experimental results show that
the proposed DRLD-SP approach is effective and outperforms other static and
dynamic placement approaches.
- Abstract(参考訳): 5Gとエッジコンピューティングの成長により、自動車のインターネットが誕生した。
異なるタイプのサービスをサポートし、異なるリソースとサービス要件を持つ。
しかし、エッジでの限られた資源、車両の高モビリティ、需要の増加、サービス要求タイプの動的性は、サービスの配置を困難にしている。
典型的な静的配置ソリューションは、トラフィック移動性とサービスダイナミクスを考慮していないため、効果的ではない。
サービス配置のためのIoVの動的処理は重要かつ困難な問題であり、本論文における作業の中心となる。
本稿では,車両の移動性,需要の変化,サービス要求のダイナミクスを考慮しつつ,最大エッジリソース使用量とサービス遅延を最小限に抑えることを目的とした,深層強化学習に基づく動的サービス配置(drld-sp)フレームワークを提案する。
シミュレーション実験にはSUMOとMATLABを用いる。
実験の結果,DRLD-SP法は有効であり,他の静的および動的配置法よりも優れていた。
関連論文リスト
- Diffusion-based Auction Mechanism for Efficient Resource Management in 6G-enabled Vehicular Metaverses [57.010829427434516]
6G対応のVehicular Metaversesでは、車両は物理的車両のデジタルレプリカとして機能するVT(Vine Twins)によって表現される。
VTタスクはリソース集約であり、高速処理のために地上基地局(BS)にオフロードする必要がある。
地上BSとUAV間の資源配分を最適化する学習型修正第2バイド(MSB)オークション機構を提案する。
論文 参考訳(メタデータ) (2024-11-01T04:34:54Z) - MetaTrading: An Immersion-Aware Model Trading Framework for Vehicular Metaverse Services [94.61039892220037]
本稿では,車載メタバースにおける拡張現実(AR)サービスの学習モデルを支援するために,メタバースユーザ(MU)にインセンティブを与える新しい没入型モデルトレーディングフレームワークを提案する。
動的ネットワーク条件とプライバシの懸念を考慮して、マルチエージェントマルコフ決定プロセスとしてMSPの報酬決定を定式化する。
実験により,提案フレームワークは,実AR関連車両データセット上でのARサービスにおいて,オブジェクト検出と分類のための高価値モデルを効果的に提供できることが示されている。
論文 参考訳(メタデータ) (2024-10-25T16:20:46Z) - Experimental Validation of User Experience-focused Dynamic Onboard Service Orchestration for Software Defined Vehicles [28.56609990409653]
Software Defined Vehicles (SDV) は有望なソリューションとして登場した。
動的オンボードサービス管理を統合して,車両運用時のさまざまなユーザ要求サービスを処理する。
この設定でリソースを効率的に割り当てるのは、ユーザエクスペリエンスの最大化と、QoS(Quality-of-Service)ネットワーク要件の混在を保証するためのバランスを必要とするため、難しい作業です。
論文 参考訳(メタデータ) (2024-09-30T06:50:51Z) - A Meta-Engine Framework for Interleaved Task and Motion Planning using Topological Refinements [51.54559117314768]
タスク・アンド・モーション・プランニング(タスク・アンド・モーション・プランニング、TAMP)は、自動化された計画問題の解決策を見つけるための問題である。
本稿では,TAMP問題のモデル化とベンチマークを行うための,汎用的でオープンソースのフレームワークを提案する。
移動エージェントと複数のタスク状態依存障害を含むTAMP問題を解決する革新的なメタ技術を導入する。
論文 参考訳(メタデータ) (2024-08-11T14:57:57Z) - A Learning-based Incentive Mechanism for Mobile AIGC Service in Decentralized Internet of Vehicles [49.86094523878003]
モバイルAIGCサービスアロケーションのための分散インセンティブ機構を提案する。
我々は、AIGCサービスのRSUへの供給と、IoVコンテキスト内のサービスに対するユーザ要求のバランスを見つけるために、マルチエージェントの深層強化学習を採用している。
論文 参考訳(メタデータ) (2024-03-29T12:46:07Z) - Real-time Control of Electric Autonomous Mobility-on-Demand Systems via Graph Reinforcement Learning [14.073588678179865]
エレクトロニック・モビリティ・オン・デマンド(E-AMoD)は、いくつかのリアルタイムな意思決定を行う必要がある。
強化学習のレンズによるE-AMoD制御問題を提案する。
本稿では,拡張性を大幅に向上し,性能の最適化に優れるグラフネットワークベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-09T22:57:21Z) - Adaptive Resource Allocation for Virtualized Base Stations in O-RAN with
Online Learning [60.17407932691429]
基地局(vBS)を備えたオープンラジオアクセスネットワークシステムは、柔軟性の向上、コスト削減、ベンダーの多様性、相互運用性のメリットを提供する。
本研究では,予期せぬ「混み合う」環境下であっても,効率的なスループットとvBSエネルギー消費のバランスをとるオンライン学習アルゴリズムを提案する。
提案手法は, 課題のある環境においても, 平均最適性ギャップをゼロにすることで, サブ線形後悔を実現する。
論文 参考訳(メタデータ) (2023-09-04T17:30:21Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - An Online Approach to Solve the Dynamic Vehicle Routing Problem with
Stochastic Trip Requests for Paratransit Services [5.649212162857776]
動的車両ルーティング問題(DVRP)を解決するための完全オンライン手法を提案する。
時間的に疎いため、パラトランジットリクエストのバッチ化は困難である。
我々はモンテカルロ木探索を用いて任意の状態に対する行動を評価する。
論文 参考訳(メタデータ) (2022-03-28T22:15:52Z) - Reinforcement Learning-based Dynamic Service Placement in Vehicular
Networks [4.010371060637208]
さまざまなタイプのサービスの要求におけるトラフィックモビリティパターンとダイナミックスの複雑さは、サービスの配置を困難なタスクにしました。
トラフィックモビリティやサービスのダイナミクスを考慮していないため、典型的な静的配置ソリューションは効果的ではありません。
本稿では,エッジサーバに最適なサービス配置を見つけるために,強化学習に基づく動的(RL-Dynamic)サービス配置フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-31T15:01:35Z) - Multi-UAV Mobile Edge Computing and Path Planning Platform based on
Reinforcement Learning [36.540396870070325]
我々は、強化学習に基づくより良いQuality-of-Serviceとパスプランニングを提供することを目的として、新しいマルチUAVモバイルエッジコンピューティングプラットフォームを導入する。
本研究の貢献は,1) モバイルエッジコンピューティングにおけるサービス品質の最適化と,同じ強化学習フレームワークにおける経路計画,2) 端末利用者のサービス品質確保のためのシグモイド様機能の利用,3) 端末利用者の要求,リスク,幾何距離を総合的に検討することである。
論文 参考訳(メタデータ) (2021-02-03T14:22:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。