論文の概要: A Heuristically Assisted Deep Reinforcement Learning Approach for
Network Slice Placement
- arxiv url: http://arxiv.org/abs/2105.06741v1
- Date: Fri, 14 May 2021 10:04:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 12:36:35.845091
- Title: A Heuristically Assisted Deep Reinforcement Learning Approach for
Network Slice Placement
- Title(参考訳): ネットワークスライス配置のためのヒューリスティック支援深部強化学習手法
- Authors: Jose Jurandir Alves Esteves, Amina Boubendir, Fabrice Guillemin, and
Pierre Sens
- Abstract要約: 本稿では,Deep Reinforcement Learning(DRL)に基づくハイブリッド配置ソリューションと,Power of Two Choices原則に基づく専用最適化を提案する。
提案したHuristically-Assisted DRL (HA-DRL) は,他の最先端手法と比較して学習プロセスの高速化と資源利用の促進を可能にする。
- 参考スコア(独自算出の注目度): 0.7885276250519428
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network Slice placement with the problem of allocation of resources from a
virtualized substrate network is an optimization problem which can be
formulated as a multiobjective Integer Linear Programming (ILP) problem.
However, to cope with the complexity of such a continuous task and seeking for
optimality and automation, the use of Machine Learning (ML) techniques appear
as a promising approach. We introduce a hybrid placement solution based on Deep
Reinforcement Learning (DRL) and a dedicated optimization heuristic based on
the Power of Two Choices principle. The DRL algorithm uses the so-called
Asynchronous Advantage Actor Critic (A3C) algorithm for fast learning, and
Graph Convolutional Networks (GCN) to automate feature extraction from the
physical substrate network. The proposed Heuristically-Assisted DRL (HA-DRL)
allows to accelerate the learning process and gain in resource usage when
compared against other state-of-the-art approaches as the evaluation results
evidence.
- Abstract(参考訳): 仮想基板ネットワークから資源を割り当てる問題に対するネットワークスライス配置は、多目的整数線形計画法(ILP)問題として定式化できる最適化問題である。
しかし、このような継続的タスクの複雑さに対処し、最適性と自動化を求めるためには、機械学習(ML)技術の使用が有望なアプローチとして現れる。
本稿では,深層強化学習(drl)に基づくハイブリッド配置ソリューションと,2つの選択原理のパワーに基づく最適化ヒューリスティックを提案する。
DRLアルゴリズムは、高速学習には非同期アドバンテージアクター批判(A3C)アルゴリズム、物理基板ネットワークからの特徴抽出を自動化するためにグラフ畳み込みネットワーク(GCN)を用いる。
提案したHuristically-Assisted DRL (HA-DRL) は,評価結果の証拠として,他の最先端アプローチと比較して学習プロセスの高速化と資源利用率の向上を可能にする。
関連論文リスト
- Federated Reinforcement Learning for Resource Allocation in V2X Networks [46.6256432514037]
資源配分はV2Xネットワークの性能に大きな影響を及ぼす。
リソース割り当てのための既存のアルゴリズムのほとんどは、最適化や機械学習に基づいている。
本稿では,連合型強化学習の枠組みの下で,V2Xネットワークにおける資源配分について検討する。
論文 参考訳(メタデータ) (2023-10-15T15:26:54Z) - Online Network Source Optimization with Graph-Kernel MAB [62.6067511147939]
大規模ネットワークにおける最適なソース配置をオンラインで学習するためのグラフカーネルマルチアームバンディットアルゴリズムであるGrab-UCBを提案する。
適応グラフ辞書モデルを用いて,ネットワークプロセスを記述する。
我々は、ネットワークパラメータに依存する性能保証を導出し、シーケンシャルな意思決定戦略の学習曲線にさらに影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-07T15:03:42Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Network Resource Allocation Strategy Based on Deep Reinforcement
Learning [4.751282319342761]
本稿では,深部強化学習(DRL)に基づく二段階VNEアルゴリズムを提案する。
MLに基づく既存のVNEアルゴリズムは、基板ネットワーク表現とトレーニングモードの重要性を無視することが多いため、フル属性行列(FAM-DRL-VNE)に基づくDRL VNEアルゴリズムを提案する。
実験の結果,上記のアルゴリズムは他のアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-02-03T06:53:00Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - Controlled Deep Reinforcement Learning for Optimized Slice Placement [0.8459686722437155]
我々は、"Heuristally Assisted Deep Reinforcement Learning (HA-DRL)"と呼ばれるハイブリッドML-ヒューリスティックアプローチを提案する。
提案手法は,最近のDeep Reinforcement Learning (DRL) によるスライス配置と仮想ネットワーク埋め込み (VNE) に活用されている。
評価結果から,提案したHA-DRLアルゴリズムは,効率的なスライス配置ポリシーの学習を高速化できることが示された。
論文 参考訳(メタデータ) (2021-08-03T14:54:00Z) - Reconfigurable Intelligent Surface Assisted Mobile Edge Computing with
Heterogeneous Learning Tasks [53.1636151439562]
モバイルエッジコンピューティング(MEC)は、AIアプリケーションに自然なプラットフォームを提供します。
再構成可能なインテリジェントサーフェス(RIS)の助けを借りて、MECで機械学習タスクを実行するインフラストラクチャを提示します。
具体的には,モバイルユーザの送信パワー,基地局のビームフォーミングベクトル,risの位相シフト行列を共同で最適化することにより,参加ユーザの学習誤差を最小化する。
論文 参考訳(メタデータ) (2020-12-25T07:08:50Z) - DeepSlicing: Deep Reinforcement Learning Assisted Resource Allocation
for Network Slicing [20.723527476555574]
ネットワークスライシングにより、同じ物理インフラストラクチャ上で複数の仮想ネットワークが動作し、5G以降のさまざまなユースケースをサポートすることができる。
これらのユースケースには、通信や計算、レイテンシやスループットといったさまざまなパフォーマンス指標など、非常に多様なネットワークリソース要求があります。
乗算器の交互方向法(ADMM)と深部強化学習(DRL)を統合したDeepSlicingを提案する。
論文 参考訳(メタデータ) (2020-08-17T20:52:19Z) - Resource Allocation via Model-Free Deep Learning in Free Space Optical
Communications [119.81868223344173]
本稿では,自由空間光学(FSO)通信におけるチャネルフェージング効果の緩和のための資源配分の一般的な問題について検討する。
本フレームワークでは,FSO資源割り当て問題を解決する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-27T17:38:51Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z) - Stacked Auto Encoder Based Deep Reinforcement Learning for Online
Resource Scheduling in Large-Scale MEC Networks [44.40722828581203]
オンラインリソーススケジューリングフレームワークは、IoT(Internet of Things)の全ユーザに対して、重み付けされたタスクレイテンシの総和を最小化するために提案されている。
以下を含む深層強化学習(DRL)に基づく解法を提案する。
DRLがポリシーネットワークをトレーニングし、最適なオフロードポリシーを見つけるのを支援するために、保存および優先されたエクスペリエンスリプレイ(2p-ER)を導入する。
論文 参考訳(メタデータ) (2020-01-24T23:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。