論文の概要: The Greatest Teacher, Failure is: Using Reinforcement Learning for SFC
Placement Based on Availability and Energy Consumption
- arxiv url: http://arxiv.org/abs/2010.05711v2
- Date: Wed, 18 Nov 2020 22:40:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 08:01:19.227531
- Title: The Greatest Teacher, Failure is: Using Reinforcement Learning for SFC
Placement Based on Availability and Energy Consumption
- Title(参考訳): 最大の教師、失敗とは: 可用性とエネルギー消費に基づくsfc配置のための強化学習の使用
- Authors: Guto Leoni Santos, Theo Lynn, Judith Kelner, Patricia Takako Endo
- Abstract要約: 通信事業者はますます複雑なサービス機能チェーン(SFC)を展開している
本稿では、強化学習(RL)に基づくアベイラビリティーとエネルギ対応のソリューションを提案する。
ブラジルの国立教育研究ネットワークのバックボーンであるRede Nacional de Ensino e Pesquisa(RNP)ネットワークに基づく地上の真理ネットワークトポロジのシミュレーションを用いて、2つのポリシー対応RLアルゴリズム、Advantage Actor-Critic(A2C)とProximal Policy optimisation(PPO2)を比較した。
- 参考スコア(独自算出の注目度): 0.3441021278275805
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Software defined networking (SDN) and network functions virtualisation (NFV)
are making networks programmable and consequently much more flexible and agile.
To meet service level agreements, achieve greater utilisation of legacy
networks, faster service deployment, and reduce expenditure, telecommunications
operators are deploying increasingly complex service function chains (SFCs).
Notwithstanding the benefits of SFCs, increasing heterogeneity and dynamism
from the cloud to the edge introduces significant SFC placement challenges, not
least adding or removing network functions while maintaining availability,
quality of service, and minimising cost. In this paper, an availability- and
energy-aware solution based on reinforcement learning (RL) is proposed for
dynamic SFC placement. Two policy-aware RL algorithms, Advantage Actor-Critic
(A2C) and Proximal Policy Optimisation (PPO2), are compared using simulations
of a ground truth network topology based on the Rede Nacional de Ensino e
Pesquisa (RNP) Network, Brazil's National Teaching and Research Network
backbone. The simulation results showed that PPO2 generally outperformed A2C
and a greedy approach both in terms of acceptance rate and energy consumption.
A2C outperformed PPO2 only in the scenario where network servers had a greater
number of computing resources.
- Abstract(参考訳): ソフトウェア定義ネットワーク(SDN)とネットワーク機能仮想化(NFV)はネットワークをプログラマブルにし、その結果、より柔軟でアジャイルになっている。
サービスレベルの合意を満たし、レガシネットワークのさらなる活用、より高速なサービス展開、支出削減を達成するため、通信事業者はますます複雑なサービス機能チェーン(sfc)を展開している。
SFCの利点にも拘わらず、クラウドからエッジへの異質性やダイナミズムの増加は、ネットワーク機能の追加や削除、可用性の維持、サービスの質、コストの最小化といった、重要なSFC配置上の課題をもたらす。
本稿では, 動的SFC配置に対する強化学習(RL)に基づくアベイラビリティとエネルギーを考慮したソリューションを提案する。
ブラジルの国立教育研究ネットワークバックボーンであるrede nacional de ensino e pesquisa (rnp) ネットワークに基づく基底真理ネットワークトポロジーのシミュレーションを用いて,2つのポリシー対応rlアルゴリズムである advantage actor-critic (a2c) とproximal policy optimization (ppo2) を比較した。
シミュレーションの結果, PPO2は一般にA2Cより優れ, 受容率とエネルギー消費の両面でグリージーなアプローチであった。
A2Cは、ネットワークサーバがより多くのコンピューティングリソースを持つシナリオでPPO2を上回った。
関連論文リスト
- Federated Reinforcement Learning for Resource Allocation in V2X Networks [46.6256432514037]
資源配分はV2Xネットワークの性能に大きな影響を及ぼす。
リソース割り当てのための既存のアルゴリズムのほとんどは、最適化や機械学習に基づいている。
本稿では,連合型強化学習の枠組みの下で,V2Xネットワークにおける資源配分について検討する。
論文 参考訳(メタデータ) (2023-10-15T15:26:54Z) - Inter-Cell Network Slicing With Transfer Learning Empowered Multi-Agent
Deep Reinforcement Learning [6.523367518762879]
ネットワークスライシングにより、オペレータは共通の物理インフラ上で多様なアプリケーションを効率的にサポートできる。
ネットワーク展開の恒常的に増大する密度化は、複雑で非自明な細胞間干渉を引き起こす。
複数の深層強化学習(DRL)エージェントを用いたDIRPアルゴリズムを開発し,各セルの資源分配を協調的に最適化する。
論文 参考訳(メタデータ) (2023-06-20T14:14:59Z) - Multi-Agent Reinforcement Learning for Network Routing in Integrated
Access Backhaul Networks [0.0]
IABネットワークの遅延を最小化しながらパケット到着率を最大化することを目的としている。
この問題を解決するため、我々はマルチエージェントで部分的に観察されたマルコフ決定プロセス(POMD)を開発した。
A2Cは他の強化学習アルゴリズムよりも優れており、ネットワーク効率が向上し、利己的エージェントの挙動が低下することを示した。
論文 参考訳(メタデータ) (2023-05-12T13:03:26Z) - Multi-Objective Provisioning of Network Slices using Deep Reinforcement
Learning [5.074839768784803]
リアルタイムネットワークスライスプロビジョニング(NSP)問題は、オンライン多目的プログラミング最適化(MOIPO)問題としてモデル化されている。
交通需要予測にPPO(Proximal Policy Optimization)法を適用することにより,MOIPO問題の解を近似する。
提案手法の有効性を,SLA違反率とネットワーク運用コストの低いMOIPO解法と比較した。
論文 参考訳(メタデータ) (2022-07-27T23:04:22Z) - On Jointly Optimizing Partial Offloading and SFC Mapping: A Cooperative
Dual-agent Deep Reinforcement Learning Approach [8.168647937560504]
本稿では,計算可能なMECシステムにおける部分オフロードとSFCマッピング共同最適化(POSMJO)問題について検討する。
目的は、実行遅延、MDのエネルギー消費、エッジコンピューティングの利用料金を組み合わせた長期的な平均コストを最小化することである。
本稿では,協調型二エージェント深部強化学習(CDADRL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-20T02:00:53Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - A Generic Visualization Approach for Convolutional Neural Networks [48.30883603606862]
我々は、制約付き最適化問題として注意の可視化を定式化する。
我々は、L2-Norm制約を注意フィルタ(L2-CAF)として利用し、分類と検索の双方で注意をローカライズする。
論文 参考訳(メタデータ) (2020-07-19T18:46:56Z) - Cognitive Radio Network Throughput Maximization with Deep Reinforcement
Learning [58.44609538048923]
RF-CRN(Radio Frequency powered Cognitive Radio Networks)は、IoT(Internet of Things)などの最新のネットワークの目と耳である可能性が高い。
自律的と考えるには、RF駆動のネットワークエンティティは、ネットワーク環境の不確実性の下でネットワークスループットを最大化するために、ローカルで決定する必要がある。
本稿では,この欠点を克服し,無線ゲートウェイがネットワークスループットを最大化するための最適なポリシーを導出できるように,深層強化学習を提案する。
論文 参考訳(メタデータ) (2020-07-07T01:49:07Z) - Using Reinforcement Learning to Allocate and Manage Service Function
Chains in Cellular Networks [0.456877715768796]
携帯電話ネットワークサービスのサービス機能チェーン(SFC)をデプロイし,ネットワーク仮想機能(VNF)を管理するための強化学習の利用を提案する。
主な目的は、サーバのエネルギー消費を考慮した損失パケットの数を減らすことである。
予備的な結果は、エージェントがSFCを割り当て、VNFを管理することができ、失われたパケットの数を削減できることを示している。
論文 参考訳(メタデータ) (2020-06-12T17:38:23Z) - Deep Learning for Radio Resource Allocation with Diverse
Quality-of-Service Requirements in 5G [53.23237216769839]
本研究では,基地局の最適資源配分ポリシーを近似するディープラーニングフレームワークを開発する。
完全接続ニューラルネットワーク(NN)は,近似誤差とサブキャリア数の量子化誤差により,要求を完全に保証できないことがわかった。
無線チャネルの分布と無線ネットワークにおけるサービスのタイプが定常的でないことを考慮し,非定常的無線ネットワークにおけるNNの更新にディープトランスファー学習を適用した。
論文 参考訳(メタデータ) (2020-03-29T04:48:22Z) - ReActNet: Towards Precise Binary Neural Network with Generalized
Activation Functions [76.05981545084738]
本稿では,新たな計算コストを伴わずに,実数値ネットワークからの精度ギャップを埋めるため,バイナリネットワークを強化するためのいくつかのアイデアを提案する。
まず,パラメータフリーのショートカットを用いて,コンパクトな実数値ネットワークを修正・バイナライズすることで,ベースラインネットワークを構築する。
提案したReActNetはすべての最先端技術よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2020-03-07T02:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。