論文の概要: V2N Service Scaling with Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2301.13324v1
- Date: Mon, 30 Jan 2023 23:13:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 18:18:41.209463
- Title: V2N Service Scaling with Deep Reinforcement Learning
- Title(参考訳): 深層強化学習によるv2nサービススケーリング
- Authors: Cyril Shih-Huan Hsu, Jorge Mart\'in-P\'erez, Chrysa Papagianni, Paola
Grosso
- Abstract要約: 我々は、エッジコンピューティングの垂直スケーリングにDeep Reinforcement Learning(DRL)を使用し、車両間通信をサポートする。
DDPGは既存のソリューションよりも優れており、アクティブCPUの平均数は23%減少し、長期報酬は24%増加した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The fifth generation (5G) of wireless networks is set out to meet the
stringent requirements of vehicular use cases. Edge computing resources can aid
in this direction by moving processing closer to end-users, reducing latency.
However, given the stochastic nature of traffic loads and availability of
physical resources, appropriate auto-scaling mechanisms need to be employed to
support cost-efficient and performant services. To this end, we employ Deep
Reinforcement Learning (DRL) for vertical scaling in Edge computing to support
vehicular-to-network communications. We address the problem using Deep
Deterministic Policy Gradient (DDPG). As DDPG is a model-free off-policy
algorithm for learning continuous actions, we introduce a discretization
approach to support discrete scaling actions. Thus we address scalability
problems inherent to high-dimensional discrete action spaces. Employing a
real-world vehicular trace data set, we show that DDPG outperforms existing
solutions, reducing (at minimum) the average number of active CPUs by 23% while
increasing the long-term reward by 24%.
- Abstract(参考訳): 無線ネットワークの第5世代(5G)は、車両用ユースケースの厳しい要件を満たすように設定される。
エッジコンピューティングリソースは、処理をエンドユーザに近づけることで、レイテンシを低減できる。
しかしながら、トラフィック負荷の確率的性質と物理リソースの可用性を考えると、コスト効率とパフォーマンスのよいサービスをサポートするために適切な自動スケーリングメカニズムが採用される必要がある。
この目的のために、エッジコンピューティングの垂直スケーリングにDeep Reinforcement Learning (DRL) を用いて、車両間通信をサポートする。
本稿では,Deep Deterministic Policy Gradient (DDPG) を用いてこの問題に対処する。
DDPGは連続的なアクションを学習するためのモデルなしのオフポリシーアルゴリズムであるため、離散的なスケーリングアクションをサポートするための離散化アプローチを導入する。
したがって、高次元離散作用空間に固有のスケーラビリティ問題に対処する。
実世界の車両トレースデータセットを用いて,ddpgが既存のソリューションを上回り,アクティブcpuの平均数を23%削減し,長期報酬を24%増加させることを示した。
関連論文リスト
- A Deep RL Approach on Task Placement and Scaling of Edge Resources for
Cellular Vehicle-to-Network Service Provisioning [7.478068133366626]
本稿では,C-V2N(Cellular Vehicular-to-Network)サービス提供のための分散型アプローチを提案する。
サービスタスクの配置とエッジリソースのスケーリングの両立した問題に対処する。
スケーリングエージェントに焦点をあてて、いくつかのState-of-the-Artスケーリングアプローチに対して、我々のアプローチのパフォーマンスをベンチマークする。
論文 参考訳(メタデータ) (2023-05-16T22:19:19Z) - Graph Reinforcement Learning-based CNN Inference Offloading in Dynamic
Edge Computing [93.67044879636093]
本稿では,動的マルチアクセスエッジコンピューティング(MEC)ネットワークにおけるCNN推論の計算オフロードについて述べる。
本稿では,グラフ強化学習に基づく早期退避機構(GRLE)を提案する。
実験の結果,GRLEはグラフ強化学習(GRL)の3.41倍,DROOEの1.45倍の平均精度が得られた。
論文 参考訳(メタデータ) (2022-10-24T07:17:20Z) - Artificial Intelligence Empowered Multiple Access for Ultra Reliable and
Low Latency THz Wireless Networks [76.89730672544216]
テラヘルツ(THz)無線ネットワークは、第5世代(B5G)以上の時代を触媒すると予想されている。
いくつかのB5Gアプリケーションの超信頼性と低レイテンシ要求を満たすためには、新しいモビリティ管理アプローチが必要である。
本稿では、インテリジェントなユーザアソシエーションとリソースアロケーションを実現するとともに、フレキシブルで適応的なモビリティ管理を可能にする、全体論的MAC層アプローチを提案する。
論文 参考訳(メタデータ) (2022-08-17T03:00:24Z) - Graph Reinforcement Learning for Radio Resource Allocation [13.290246410488727]
我々は,無線通信における多くの問題に固有の2種類のリレーショナル先行性を活用するために,グラフ強化学習を利用する。
グラフ強化学習フレームワークを体系的に設計するために,まず状態行列を状態グラフに変換する方法を提案する。
次に,所望の置換特性を満たすグラフニューラルネットワークの汎用手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T08:02:54Z) - Multi-Exit Semantic Segmentation Networks [78.44441236864057]
本稿では,最先端セグメンテーションモデルをMESSネットワークに変換するフレームワークを提案する。
パラメトリド早期出口を用いた特別訓練されたCNNは、より簡単なサンプルの推測時に、その深さに沿って保存する。
接続されたセグメンテーションヘッドの数、配置、アーキテクチャとエグジットポリシーを併用して、デバイス機能とアプリケーション固有の要件に適応する。
論文 参考訳(メタデータ) (2021-06-07T11:37:03Z) - Learning to Optimize Industry-Scale Dynamic Pickup and Delivery Problems [17.076557377480444]
動的ピックアップ・デリバリー問題 (DPDP) は、配送注文が事前に分かっていない場合のコストを最小限に抑えるため、複数のサイト間で車両を動的にスケジューリングすることを目的としている。
産業規模のDPDPを解決するために,データ駆動型空間時間支援ダブルグラフネットワーク(ST-DDGN)を提案する。
本手法は,ST-DDGNデータから隣接車両のリレーショナル表現を周期的に学習し,補正することが可能である。
論文 参考訳(メタデータ) (2021-05-27T01:16:00Z) - Distributed Multi-agent Meta Learning for Trajectory Design in Wireless
Drone Networks [151.27147513363502]
本稿では,動的無線ネットワーク環境で動作するエネルギー制約型ドローン群に対する軌道設計の問題点について検討する。
値ベース強化学習(VDRL)ソリューションとメタトレイン機構を提案する。
論文 参考訳(メタデータ) (2020-12-06T01:30:12Z) - Deep Reinforcement Learning for Adaptive Network Slicing in 5G for
Intelligent Vehicular Systems and Smart Cities [19.723551683930776]
エッジコントローラ(EC)と協調したフォグノードのクラスタ(FN)に基づくネットワークスライシングモデルを開発する。
クラスタ内の各サービスリクエストに対して、ECは、どのFNがタスクを実行し、エッジでローカルにリクエストをサーブするか、あるいはタスクを拒否し、それをクラウドに参照するかを決定する。
本稿では,最適スライシングポリシーを適応的に学習する深層強化学習(DRL)ソリューションを提案する。
論文 参考訳(メタデータ) (2020-10-19T23:30:08Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z) - When Deep Reinforcement Learning Meets Federated Learning: Intelligent
Multi-Timescale Resource Management for Multi-access Edge Computing in 5G
Ultra Dense Network [31.274279003934268]
まず,ブロックチェーンとAIを5Gエッジコンピューティングネットワークに統合した,インテリジェントな超高密度エッジコンピューティング(I-UDEC)フレームワークを提案する。
実時間および低オーバーヘッド計算のオフロード決定と資源配分戦略を実現するために,新しい2段階の深層強化学習法(textit2Ts-DRL)を設計する。
提案アルゴリズムはタスク実行時間を最大31.87%削減できる。
論文 参考訳(メタデータ) (2020-09-22T15:08:00Z) - Joint Parameter-and-Bandwidth Allocation for Improving the Efficiency of
Partitioned Edge Learning [73.82875010696849]
機械学習アルゴリズムは、人工知能(AI)モデルをトレーニングするために、ネットワークエッジにデプロイされる。
本稿では,パラメータ(計算負荷)割り当てと帯域幅割り当ての新しい共同設計に焦点を当てる。
論文 参考訳(メタデータ) (2020-03-10T05:52:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。