論文の概要: Time Series Based Network Intrusion Detection using MTF-Aided Transformer
- arxiv url: http://arxiv.org/abs/2508.16035v1
- Date: Fri, 22 Aug 2025 01:54:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.224424
- Title: Time Series Based Network Intrusion Detection using MTF-Aided Transformer
- Title(参考訳): MTF型変圧器を用いた時系列ネットワーク侵入検出
- Authors: Poorvi Joshi, Mohan Gurusamy,
- Abstract要約: ソフトウェア定義ネットワーク(SDN)用に特別に設計されたマルコフ遷移場(MTF)支援トランスフォーマーモデルを用いた時系列分類の新しい手法を提案する。
InSDNデータセットを用いてモデルの性能を評価し,本モデルがベースライン分類モデルより優れていることを示す。
- 参考スコア(独自算出の注目度): 3.265773263570237
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a novel approach to time series classification using a Markov Transition Field (MTF)-aided Transformer model, specifically designed for Software-Defined Networks (SDNs). The proposed model integrates the temporal dependency modeling strengths of MTFs with the sophisticated pattern recognition capabilities of Transformer architectures. We evaluate the model's performance using the InSDN dataset, demonstrating that our model outperforms baseline classification models, particularly in data-constrained environments commonly encountered in SDN applications. We also highlight the relationship between the MTF and Transformer components, which leads to better performance, even with limited data. Furthermore, our approach achieves competitive training and inference times, making it an efficient solution for real-world SDN applications. These findings establish the potential of MTF-aided Transformers to address the challenges of time series classification in SDNs, offering a promising path for reliable and scalable analysis in scenarios with sparse data.
- Abstract(参考訳): 本稿では,特にSDN(Software-Defined Networks)向けに設計されたマルコフ遷移場(MTF)支援トランスフォーマーモデルを用いた時系列分類手法を提案する。
提案モデルは,MTFの時間依存性モデリング強度とTransformerアーキテクチャの高度なパターン認識機能を統合する。
InSDNデータセットを用いてモデルの性能を評価し、そのモデルがベースライン分類モデルより優れていることを示す。
MTFコンポーネントとTransformerコンポーネントの関係も強調します。
さらに,本手法は,実環境におけるSDNアプリケーションに対する効率的なソリューションとして,競争力のあるトレーニングと推論時間を実現する。
これらの知見は、MTF支援トランスフォーマーがSDNにおける時系列分類の課題に対処する可能性を確立し、スパースデータを持つシナリオにおける信頼性とスケーラブルな分析のための有望なパスを提供する。
関連論文リスト
- Generative Modeling of Networked Time-Series via Transformer Architectures [0.0]
多くのセキュリティおよびネットワークアプリケーションは、機械学習モデルをトレーニングするために大きなデータセットを必要とする。
最近の研究では、トランスフォーマーモデルが新しいサンプルを合成することによってデータのサイズを拡大する可能性を示しているが、合成されたサンプルは実際のデータよりもモデルを改善することはできない。
本稿では,既存のMLの性能向上に有効な時系列データを生成するための生成フレームワークとして,効率的なトランスフォーマーベースモデルを設計する。
論文 参考訳(メタデータ) (2025-06-08T23:05:13Z) - Generalized Factor Neural Network Model for High-dimensional Regression [50.554377879576066]
複素・非線形・雑音に隠れた潜在低次元構造を持つ高次元データセットをモデル化する課題に取り組む。
我々のアプローチは、非パラメトリック回帰、因子モデル、高次元回帰のためのニューラルネットワークの概念のシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2025-02-16T23:13:55Z) - TimeDiT: General-purpose Diffusion Transformers for Time Series Foundation Model [11.281386703572842]
TimeDiTは時間依存性学習と確率的サンプリングを組み合わせた拡散トランスフォーマーモデルである。
TimeDiTは、さまざまなタスクにわたるトレーニングと推論プロセスを調和させるために、統一的なマスキングメカニズムを採用している。
我々の体系的評価は、ゼロショット/ファインチューニングによる予測と計算という基本的なタスクにおいて、TimeDiTの有効性を示す。
論文 参考訳(メタデータ) (2024-09-03T22:31:57Z) - sTransformer: A Modular Approach for Extracting Inter-Sequential and Temporal Information for Time-Series Forecasting [6.434378359932152]
既存のTransformerベースのモデルを,(1)モデル構造の変更,(2)入力データの変更の2つのタイプに分類する。
我々は、シーケンシャル情報と時間情報の両方をフルにキャプチャするSequence and Temporal Convolutional Network(STCN)を導入する$textbfsTransformer$を提案する。
我々は,線形モデルと既存予測モデルとを長期時系列予測で比較し,新たな成果を得た。
論文 参考訳(メタデータ) (2024-08-19T06:23:41Z) - UniTST: Effectively Modeling Inter-Series and Intra-Series Dependencies for Multivariate Time Series Forecasting [98.12558945781693]
フラット化されたパッチトークンに統一された注意機構を含む変圧器ベースモデルUniTSTを提案する。
提案モデルでは単純なアーキテクチャを採用しているが,時系列予測のためのいくつかのデータセットの実験で示されたような,魅力的な性能を提供する。
論文 参考訳(メタデータ) (2024-06-07T14:39:28Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Todyformer: Towards Holistic Dynamic Graph Transformers with
Structure-Aware Tokenization [6.799413002613627]
Todyformerは、動的グラフに適したトランスフォーマーベースのニューラルネットワークである。
メッセージパッシングニューラルネットワーク(MPNN)のローカルエンコーディング能力とトランスフォーマーのグローバルエンコーディング能力を統合する。
Todyformerは、ダウンストリームタスクの最先端メソッドよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2024-02-02T23:05:30Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。