論文の概要: A Heuristically Assisted Deep Reinforcement Learning Approach for
Network Slice Placement
- arxiv url: http://arxiv.org/abs/2105.06741v1
- Date: Fri, 14 May 2021 10:04:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 12:36:35.845091
- Title: A Heuristically Assisted Deep Reinforcement Learning Approach for
Network Slice Placement
- Title(参考訳): ネットワークスライス配置のためのヒューリスティック支援深部強化学習手法
- Authors: Jose Jurandir Alves Esteves, Amina Boubendir, Fabrice Guillemin, and
Pierre Sens
- Abstract要約: 本稿では,Deep Reinforcement Learning(DRL)に基づくハイブリッド配置ソリューションと,Power of Two Choices原則に基づく専用最適化を提案する。
提案したHuristically-Assisted DRL (HA-DRL) は,他の最先端手法と比較して学習プロセスの高速化と資源利用の促進を可能にする。
- 参考スコア(独自算出の注目度): 0.7885276250519428
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network Slice placement with the problem of allocation of resources from a
virtualized substrate network is an optimization problem which can be
formulated as a multiobjective Integer Linear Programming (ILP) problem.
However, to cope with the complexity of such a continuous task and seeking for
optimality and automation, the use of Machine Learning (ML) techniques appear
as a promising approach. We introduce a hybrid placement solution based on Deep
Reinforcement Learning (DRL) and a dedicated optimization heuristic based on
the Power of Two Choices principle. The DRL algorithm uses the so-called
Asynchronous Advantage Actor Critic (A3C) algorithm for fast learning, and
Graph Convolutional Networks (GCN) to automate feature extraction from the
physical substrate network. The proposed Heuristically-Assisted DRL (HA-DRL)
allows to accelerate the learning process and gain in resource usage when
compared against other state-of-the-art approaches as the evaluation results
evidence.
- Abstract(参考訳): 仮想基板ネットワークから資源を割り当てる問題に対するネットワークスライス配置は、多目的整数線形計画法(ILP)問題として定式化できる最適化問題である。
しかし、このような継続的タスクの複雑さに対処し、最適性と自動化を求めるためには、機械学習(ML)技術の使用が有望なアプローチとして現れる。
本稿では,深層強化学習(drl)に基づくハイブリッド配置ソリューションと,2つの選択原理のパワーに基づく最適化ヒューリスティックを提案する。
DRLアルゴリズムは、高速学習には非同期アドバンテージアクター批判(A3C)アルゴリズム、物理基板ネットワークからの特徴抽出を自動化するためにグラフ畳み込みネットワーク(GCN)を用いる。
提案したHuristically-Assisted DRL (HA-DRL) は,評価結果の証拠として,他の最先端アプローチと比較して学習プロセスの高速化と資源利用率の向上を可能にする。
関連論文リスト
- Offline reinforcement learning for job-shop scheduling problems [1.3927943269211593]
本稿では,複雑な制約を伴う最適化問題に対して,新しいオフラインRL法を提案する。
我々のアプローチは、エッジ属性のアクションを符号化し、専門家ソリューションの模倣と期待される報酬のバランスをとる。
本手法がジョブショップスケジューリングおよびフレキシブルジョブショップスケジューリングベンチマークに与える影響を実証する。
論文 参考訳(メタデータ) (2024-10-21T07:33:42Z) - Multiobjective Vehicle Routing Optimization with Time Windows: A Hybrid Approach Using Deep Reinforcement Learning and NSGA-II [52.083337333478674]
本稿では、時間窓を用いた多目的車両ルーティング問題(MOVRPTW)に対処するために、ウェイト・アウェア・ディープ・強化学習(WADRL)手法を提案する。
WADRLの結果を最適化するために非支配的ソート遺伝的アルゴリズム-II (NSGA-II) 法を用いる。
論文 参考訳(メタデータ) (2024-07-18T02:46:06Z) - Joint Admission Control and Resource Allocation of Virtual Network Embedding via Hierarchical Deep Reinforcement Learning [69.00997996453842]
本稿では,仮想ネットワークの埋め込みにおいて,入出力制御と資源配分を併用して学習する深層強化学習手法を提案する。
HRL-ACRAは,受入率と長期平均収益の両面で,最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2024-06-25T07:42:30Z) - DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - Federated Reinforcement Learning for Resource Allocation in V2X Networks [46.6256432514037]
資源配分はV2Xネットワークの性能に大きな影響を及ぼす。
リソース割り当てのための既存のアルゴリズムのほとんどは、最適化や機械学習に基づいている。
本稿では,連合型強化学習の枠組みの下で,V2Xネットワークにおける資源配分について検討する。
論文 参考訳(メタデータ) (2023-10-15T15:26:54Z) - Online Network Source Optimization with Graph-Kernel MAB [62.6067511147939]
大規模ネットワークにおける最適なソース配置をオンラインで学習するためのグラフカーネルマルチアームバンディットアルゴリズムであるGrab-UCBを提案する。
適応グラフ辞書モデルを用いて,ネットワークプロセスを記述する。
我々は、ネットワークパラメータに依存する性能保証を導出し、シーケンシャルな意思決定戦略の学習曲線にさらに影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-07T15:03:42Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Network Resource Allocation Strategy Based on Deep Reinforcement
Learning [4.751282319342761]
本稿では,深部強化学習(DRL)に基づく二段階VNEアルゴリズムを提案する。
MLに基づく既存のVNEアルゴリズムは、基板ネットワーク表現とトレーニングモードの重要性を無視することが多いため、フル属性行列(FAM-DRL-VNE)に基づくDRL VNEアルゴリズムを提案する。
実験の結果,上記のアルゴリズムは他のアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-02-03T06:53:00Z) - Resource Allocation via Model-Free Deep Learning in Free Space Optical
Communications [119.81868223344173]
本稿では,自由空間光学(FSO)通信におけるチャネルフェージング効果の緩和のための資源配分の一般的な問題について検討する。
本フレームワークでは,FSO資源割り当て問題を解決する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-27T17:38:51Z) - Stacked Auto Encoder Based Deep Reinforcement Learning for Online
Resource Scheduling in Large-Scale MEC Networks [44.40722828581203]
オンラインリソーススケジューリングフレームワークは、IoT(Internet of Things)の全ユーザに対して、重み付けされたタスクレイテンシの総和を最小化するために提案されている。
以下を含む深層強化学習(DRL)に基づく解法を提案する。
DRLがポリシーネットワークをトレーニングし、最適なオフロードポリシーを見つけるのを支援するために、保存および優先されたエクスペリエンスリプレイ(2p-ER)を導入する。
論文 参考訳(メタデータ) (2020-01-24T23:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。