論文の概要: Sequential Deep Learning Architectures for Anomaly Detection in Virtual
Network Function Chains
- arxiv url: http://arxiv.org/abs/2109.14276v1
- Date: Wed, 29 Sep 2021 08:47:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 21:41:53.883985
- Title: Sequential Deep Learning Architectures for Anomaly Detection in Virtual
Network Function Chains
- Title(参考訳): 仮想ネットワーク機能チェーンにおける異常検出のための逐次ディープラーニングアーキテクチャ
- Authors: Chungjun Lee, Jibum Hong, DongNyeong Heo, Heeyoul Choi
- Abstract要約: サービス機能チェーン(SFC)における仮想ネットワーク機能のための異常検出システム(ADS)
本稿では,チェーン内の時系列パターンと仮想ネットワーク関数(VNF)の逐次パターンを可変長で学習するシーケンシャルディープラーニングモデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Software-defined networking (SDN) and network function virtualization (NFV)
have enabled the efficient provision of network service. However, they also
raised new tasks to monitor and ensure the status of virtualized service, and
anomaly detection is one of such tasks. There have been many data-driven
approaches to implement anomaly detection system (ADS) for virtual network
functions in service function chains (SFCs). In this paper, we aim to develop
more advanced deep learning models for ADS. Previous approaches used learning
algorithms such as random forest (RF), gradient boosting machine (GBM), or deep
neural networks (DNNs). However, these models have not utilized sequential
dependencies in the data. Furthermore, they are limited as they can only apply
to the SFC setting from which they were trained. Therefore, we propose several
sequential deep learning models to learn time-series patterns and sequential
patterns of the virtual network functions (VNFs) in the chain with variable
lengths. As a result, the suggested models improve detection performance and
apply to SFCs with varying numbers of VNFs.
- Abstract(参考訳): ソフトウェア定義ネットワーク(SDN)とネットワーク機能仮想化(NFV)は、ネットワークサービスの効率的なプロビジョニングを可能にしている。
しかし、仮想化サービスの状態を監視、保証するための新しいタスクも立ち上げており、異常検出もその1つだ。
サービス機能チェーン(SFC)における仮想ネットワーク機能のための異常検出システム(ADS)を実装するためのデータ駆動型アプローチが数多く存在する。
本稿では,ADSのためのより高度なディープラーニングモデルを開発することを目的とする。
従来のアプローチでは、ランダムフォレスト(RF)、グラデーションブースティングマシン(GBM)、ディープニューラルネットワーク(DNN)といった学習アルゴリズムを使用していた。
しかし、これらのモデルはデータのシーケンシャルな依存関係を利用していない。
さらに、訓練されたSFC設定のみに適用できるため、制限されている。
そこで本研究では,チェーン内の時系列パターンと仮想ネットワーク関数(VNF)の逐次パターンを可変長で学習するシーケンシャルディープラーニングモデルを提案する。
その結果,提案モデルでは検出性能が向上し,VNFの数が異なるSFCに適用できることがわかった。
関連論文リスト
- NIDS Neural Networks Using Sliding Time Window Data Processing with Trainable Activations and its Generalization Capability [0.0]
本稿では,ネットワーク侵入検知システム(NIDS)のためのニューラルネットワークについて述べる。
ディープパケットインスペクションに頼らず、ほとんどのNIDSデータセットで見つからず、従来のフローコレクタから簡単に取得できる11の機能しか必要としない。
報告されたトレーニング精度は、提案手法の99%を超え、ニューラルネットワークの入力特性は20に満たない。
論文 参考訳(メタデータ) (2024-10-24T11:36:19Z) - GradINN: Gradient Informed Neural Network [2.287415292857564]
物理情報ニューラルネットワーク(PINN)にヒントを得た手法を提案する。
GradINNは、システムの勾配に関する事前の信念を利用して、予測関数の勾配を全ての入力次元にわたって制限する。
非時間依存システムにまたがる多様な問題に対するGradINNの利点を実証する。
論文 参考訳(メタデータ) (2024-09-03T14:03:29Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Properties and Potential Applications of Random Functional-Linked Types
of Neural Networks [81.56822938033119]
ランダム関数リンクニューラルネットワーク(RFLNN)は、深い構造を学習する別の方法を提供する。
本稿では周波数領域の観点からRFLNNの特性について考察する。
本稿では,より優れた性能でBLSネットワークを生成する手法を提案し,ポゾン方程式を解くための効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-04-03T13:25:22Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Online learning of windmill time series using Long Short-term Cognitive
Networks [58.675240242609064]
風車農場で生成されたデータの量は、オンライン学習が従うべき最も有効な戦略となっている。
我々はLong Short-term Cognitive Networks (LSTCNs) を用いて、オンライン環境での風車時系列を予測する。
提案手法は,単純なRNN,長期記憶,Gated Recurrent Unit,Hidden Markov Modelに対して最も低い予測誤差を報告した。
論文 参考訳(メタデータ) (2021-07-01T13:13:24Z) - On the Evaluation of Sequential Machine Learning for Network Intrusion
Detection [3.093890460224435]
本稿では,悪質な活動パターンを示すNetFlowの時間的シーケンスを抽出するための詳細な手法を提案する。
次に,この手法を適用し,従来の静的学習モデルと逐次学習モデルの有効性を比較した。
論文 参考訳(メタデータ) (2021-06-15T08:29:28Z) - Contextual HyperNetworks for Novel Feature Adaptation [43.49619456740745]
Contextual HyperNetwork(CHN)は、ベースモデルを新機能に拡張するためのパラメータを生成する。
予測時、CHNはニューラルネットワークを通る単一のフォワードパスのみを必要とし、大幅なスピードアップをもたらす。
本システムでは,既存のインプテーションやメタラーニングベースラインよりも,新しい特徴のマイズショット学習性能が向上することを示す。
論文 参考訳(メタデータ) (2021-04-12T23:19:49Z) - Reinforcement Learning of Graph Neural Networks for Service Function
Chaining [3.9373541926236766]
サービス機能連鎖(SFC)モジュールは、物理サーバを介してネットワークトラフィックの効率的な経路を生成することで重要な役割を果たす。
従来の教師付き学習手法では,SFCタスクのネットワーク特徴をグラフニューラルネットワーク(GNN)で表現できることが実証された。
本稿では,ラベルなしデータを用いた各種ネットワークトポロジのトレーニングモデルに強化学習手法を適用した。
論文 参考訳(メタデータ) (2020-11-17T03:50:53Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。