論文の概要: STDPG: A Spatio-Temporal Deterministic Policy Gradient Agent for Dynamic
Routing in SDN
- arxiv url: http://arxiv.org/abs/2004.09783v1
- Date: Tue, 21 Apr 2020 07:19:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 07:51:09.138279
- Title: STDPG: A Spatio-Temporal Deterministic Policy Gradient Agent for Dynamic
Routing in SDN
- Title(参考訳): STDPG:SDNにおける動的ルーティングのための時空間決定論的ポリシー勾配エージェント
- Authors: Juan Chen, Zhiwen Xiao, Huanlai Xing, Penglin Dai, Shouxi Luo,
Muhammad Azhar Iqbal
- Abstract要約: ソフトウェア定義ネットワーク(SDN)における動的ルーティングは、集中的な意思決定問題と見なすことができる。
本稿では,SDNにおける動的ルーティングのための新しいモデルフリーフレームワークを提案する。
STDPGは、平均的なエンドツーエンド遅延の観点から、より良いルーティングソリューションを実現する。
- 参考スコア(独自算出の注目度): 6.27420060051673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic routing in software-defined networking (SDN) can be viewed as a
centralized decision-making problem. Most of the existing deep reinforcement
learning (DRL) agents can address it, thanks to the deep neural network
(DNN)incorporated. However, fully-connected feed-forward neural network (FFNN)
is usually adopted, where spatial correlation and temporal variation of traffic
flows are ignored. This drawback usually leads to significantly high
computational complexity due to large number of training parameters. To
overcome this problem, we propose a novel model-free framework for dynamic
routing in SDN, which is referred to as spatio-temporal deterministic policy
gradient (STDPG) agent. Both the actor and critic networks are based on
identical DNN structure, where a combination of convolutional neural network
(CNN) and long short-term memory network (LSTM) with temporal attention
mechanism, CNN-LSTM-TAM, is devised. By efficiently exploiting spatial and
temporal features, CNNLSTM-TAM helps the STDPG agent learn better from the
experience transitions. Furthermore, we employ the prioritized experience
replay (PER) method to accelerate the convergence of model training. The
experimental results show that STDPG can automatically adapt for current
network environment and achieve robust convergence. Compared with a number
state-ofthe-art DRL agents, STDPG achieves better routing solutions in terms of
the average end-to-end delay.
- Abstract(参考訳): ソフトウェア定義ネットワーク(SDN)における動的ルーティングは、集中的な意思決定問題と見なすことができる。
既存の深層強化学習(drl)エージェントのほとんどは、dnn(deep neural network)を組み込んだことで、それに対処することができる。
しかしながら、完全に接続されたフィードフォワードニューラルネットワーク(FFNN)は通常、空間的相関とトラフィックフローの時間的変動を無視する。
この欠点は通常、多数のトレーニングパラメータにより、計算の複雑さが著しく高くなる。
この問題を解決するために,我々は,時空間決定性ポリシー勾配(STDPG)エージェントと呼ばれるSDNにおける動的ルーティングのための新しいモデルフリーフレームワークを提案する。
アクターネットワークと批評家ネットワークは同一のDNN構造に基づいており、畳み込みニューラルネットワーク(CNN)と長期記憶ネットワーク(LSTM)と時間的注意機構(CNN-LSTM-TAM)の組み合わせが考案されている。
空間的特徴と時間的特徴を効率的に活用することにより、CNNLSTM-TAMはSTDPGエージェントが経験遷移からより良く学習するのに役立つ。
さらに,モデル学習の収束を早めるために優先度付き体験リプレイ(per)方式を採用している。
実験の結果,STDPGは現在のネットワーク環境に適応し,堅牢な収束を実現することができることがわかった。
多くの最先端DRLエージェントと比較して、STDPGは、平均的なエンドツーエンド遅延の観点から、より良いルーティングソリューションを実現する。
関連論文リスト
- How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Online Training Through Time for Spiking Neural Networks [66.7744060103562]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
近年のトレーニング手法の進歩により、レイテンシの低い大規模タスクにおいて、ディープSNNを成功させることができた。
本稿では,BPTT から派生した SNN の時間的学習(OTTT)によるオンライントレーニングを提案する。
論文 参考訳(メタデータ) (2022-10-09T07:47:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Spiking Generative Adversarial Networks With a Neural Network
Discriminator: Local Training, Bayesian Models, and Continual Meta-Learning [31.78005607111787]
スパイキングパターンを再現するためにニューラルネットワークを訓練することは、ニューロモルフィックコンピューティングにおける中心的な問題である。
この研究は、個々のスパイキング信号ではなく、スパイキング信号にマッチするようにSNNを訓練することを提案する。
論文 参考訳(メタデータ) (2021-11-02T17:20:54Z) - An optimised deep spiking neural network architecture without gradients [7.183775638408429]
本稿では、局所シナプスおよびしきい値適応ルールを用いたエンドツーエンドのトレーニング可能なモジュラーイベント駆動ニューラルアーキテクチャを提案する。
このアーキテクチャは、既存のスパイキングニューラルネットワーク(SNN)アーキテクチャの高度に抽象化されたモデルを表している。
論文 参考訳(メタデータ) (2021-09-27T05:59:12Z) - Skip-Connected Self-Recurrent Spiking Neural Networks with Joint
Intrinsic Parameter and Synaptic Weight Training [14.992756670960008]
我々はSkip-Connected Self-Recurrent SNNs (ScSr-SNNs) と呼ばれる新しいタイプのRSNNを提案する。
ScSr-SNNは、最先端BP法で訓練された他のタイプのRSNNと比較して、パフォーマンスを最大2.55%向上させることができる。
論文 参考訳(メタデータ) (2020-10-23T22:27:13Z) - SRDCNN: Strongly Regularized Deep Convolution Neural Network
Architecture for Time-series Sensor Signal Classification Tasks [4.950427992960756]
SRDCNN: 時系列分類タスクを実行するために, SRDCNN(Strongly Regularized Deep Convolution Neural Network)をベースとしたディープアーキテクチャを提案する。
提案手法の新規性は、ネットワークウェイトが L1 と L2 のノルム法則によって正則化されることである。
論文 参考訳(メタデータ) (2020-07-14T08:42:39Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。