論文の概要: Noise Robust One-Class Intrusion Detection on Dynamic Graphs
- arxiv url: http://arxiv.org/abs/2508.14192v1
- Date: Tue, 19 Aug 2025 18:36:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.244003
- Title: Noise Robust One-Class Intrusion Detection on Dynamic Graphs
- Title(参考訳): 動的グラフを用いたノイズロバスト1クラス侵入検出
- Authors: Aleksei Liuliakov, Alexander Schulz, Luca Hermes, Barbara Hammer,
- Abstract要約: 本研究では,TGN-SVDDモデルの確率的バージョンを導入し,入力雑音の有無の検出精度を高めることを目的とした。
合成ノイズを用いたCIC-IDS 2017データセットの修正実験により, ベースラインTGN-SVDDモデルに比べて検出性能が著しく向上した。
- 参考スコア(独自算出の注目度): 46.453758431767724
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the domain of network intrusion detection, robustness against contaminated and noisy data inputs remains a critical challenge. This study introduces a probabilistic version of the Temporal Graph Network Support Vector Data Description (TGN-SVDD) model, designed to enhance detection accuracy in the presence of input noise. By predicting parameters of a Gaussian distribution for each network event, our model is able to naturally address noisy adversarials and improve robustness compared to a baseline model. Our experiments on a modified CIC-IDS2017 data set with synthetic noise demonstrate significant improvements in detection performance compared to the baseline TGN-SVDD model, especially as noise levels increase.
- Abstract(参考訳): ネットワーク侵入検出の分野では、汚染された、ノイズの多いデータ入力に対する堅牢性は依然として重要な課題である。
本研究では,TGN-SVDDモデルの確率的バージョンを導入し,入力雑音の有無の検出精度を高めることを目的とした。
各ネットワークイベントに対するガウス分布のパラメータを予測することにより,本モデルでは自然に雑音に対処し,ベースラインモデルと比較して頑健性を向上させることができる。
合成雑音を用いたCIC-IDS2017データセットの修正実験により, ベースラインTGN-SVDDモデルに比べて検出性能が著しく向上した。
関連論文リスト
- Robust and Noise-resilient Long-Term Prediction of Spatiotemporal Data Using Variational Mode Graph Neural Networks with 3D Attention [11.356542363919058]
本稿では,時空間変動モードグラフネットワーク(VMGCN)を用いた長期予測の堅牢性向上に焦点をあてる。
このタスクのディープラーニングネットワークは過去のデータ入力に依存しているが、リアルタイムデータはセンサノイズによって破壊される可能性がある。
我々は、このノイズを独立かつ同一に分散したガウスノイズとしてモデル化し、LargeSTトラフィックボリュームデータセットに組み込む。
論文 参考訳(メタデータ) (2025-04-09T07:49:45Z) - Noise Augmented Fine Tuning for Mitigating Hallucinations in Large Language Models [1.0579965347526206]
大規模言語モデル(LLM)は、しばしば不正確な、または誤解を招くコンテンツ・ハロシンを生成する。
noise-Augmented Fine-Tuning (NoiseFiT) は適応ノイズ注入を利用してモデルロバスト性を高める新しいフレームワークである。
NoiseFiTは、動的にスケールしたガウス雑音を用いて、高SNR(より堅牢)または低SNR(潜在的に過正規化)と同定された層を選択的に摂動する。
論文 参考訳(メタデータ) (2025-04-04T09:27:19Z) - Noisy Test-Time Adaptation in Vision-Language Models [73.14136220844156]
テスト時間適応(TTA)は、テスト中のターゲットデータのみに依存することにより、ソースデータとターゲットデータの分散シフトに対処することを目的としている。
本稿では、ゼロショット方式で、テスト時にノイズのあるサンプルをターゲットとするデータにモデルを適応させることに焦点を当てたゼロショットノイズTTA(ZS-NTTA)を提案する。
本稿では, 冷凍機の出力を擬似ラベルとして利用し, ノイズ検出器の訓練を行う適応ノイズ検出器(AdaND)を提案する。
論文 参考訳(メタデータ) (2025-02-20T14:37:53Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Improving the Robustness of Summarization Models by Detecting and
Removing Input Noise [50.27105057899601]
本研究では,様々な種類の入力ノイズから,様々なデータセットやモデルサイズに対する性能損失を定量化する大規模な実験的検討を行った。
本稿では,モデル推論中の入力中のそのようなノイズを検出し,除去するための軽量な手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T00:33:11Z) - ADASYN-Random Forest Based Intrusion Detection Model [0.0]
侵入検知はサイバーセキュリティの分野で重要な話題であり、近年のネットワークの脅威は多様性とバリエーションの特徴を持っている。
侵入検出データセットの深刻な不均衡を考慮して,adasynオーバーサンプリング法を用いてデータセットのバランスをとる。
従来の機械学習モデルと比較して、パフォーマンス、一般化能力、堅牢性が向上します。
論文 参考訳(メタデータ) (2021-05-10T12:22:36Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。