論文の概要: Contrastive Self-Supervised Network Intrusion Detection using Augmented Negative Pairs
- arxiv url: http://arxiv.org/abs/2509.06550v1
- Date: Mon, 08 Sep 2025 11:04:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.080184
- Title: Contrastive Self-Supervised Network Intrusion Detection using Augmented Negative Pairs
- Title(参考訳): Augmented Negative Pairs を用いたコントラスト自己監督型ネットワーク侵入検出
- Authors: Jack Wilkie, Hanan Hindy, Christos Tachtatzis, Robert Atkinson,
- Abstract要約: 本研究は,拡張負対 (Augmented Negative pairs, CLAN) を用いたコントラスト学習を導入する。
CLANはネットワーク侵入検知のための新しいパラダイムであり、拡張されたサンプルを負のビューとして扱う。
このアプローチは、良性交通に対する事前訓練後の分類精度と推論効率を両立させる。
- 参考スコア(独自算出の注目度): 0.8749675983608171
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network intrusion detection remains a critical challenge in cybersecurity. While supervised machine learning models achieve state-of-the-art performance, their reliance on large labelled datasets makes them impractical for many real-world applications. Anomaly detection methods, which train exclusively on benign traffic to identify malicious activity, suffer from high false positive rates, limiting their usability. Recently, self-supervised learning techniques have demonstrated improved performance with lower false positive rates by learning discriminative latent representations of benign traffic. In particular, contrastive self-supervised models achieve this by minimizing the distance between similar (positive) views of benign traffic while maximizing it between dissimilar (negative) views. Existing approaches generate positive views through data augmentation and treat other samples as negative. In contrast, this work introduces Contrastive Learning using Augmented Negative pairs (CLAN), a novel paradigm for network intrusion detection where augmented samples are treated as negative views - representing potentially malicious distributions - while other benign samples serve as positive views. This approach enhances both classification accuracy and inference efficiency after pretraining on benign traffic. Experimental evaluation on the Lycos2017 dataset demonstrates that the proposed method surpasses existing self-supervised and anomaly detection techniques in a binary classification task. Furthermore, when fine-tuned on a limited labelled dataset, the proposed approach achieves superior multi-class classification performance compared to existing self-supervised models.
- Abstract(参考訳): ネットワーク侵入検出は、サイバーセキュリティにおいて依然として重要な課題である。
教師付き機械学習モデルは最先端のパフォーマンスを達成する一方で、大きなラベル付きデータセットに依存しているため、多くの現実世界のアプリケーションでは実用的ではない。
悪意のある行為を識別するために、悪質なトラフィックのみを訓練する異常検出方法は、高い偽陽性率に悩まされ、ユーザビリティが制限される。
近年,自己教師型学習技術は,良性交通の識別潜在表現を学習することで,偽陽性率の低い性能向上を実証している。
特に、対照的な自己監督モデルでは、良性トラフィックの類似した(正の)ビュー間の距離を最小化し、異性(負の)ビュー間の距離を最大化する。
既存のアプローチでは、データ拡張を通じて肯定的なビューを生成し、他のサンプルを否定的に扱う。
これとは対照的に、Augmented Negative pairs (CLAN)を用いたContrastive Learningを導入する。これはネットワーク侵入検知のための新しいパラダイムで、強化されたサンプルをネガティブなビューとして扱い、潜在的に悪意のある分布を表す。
このアプローチは、良性交通に対する事前訓練後の分類精度と推論効率を両立させる。
Lycos2017データセットの実験的評価により、提案手法は、バイナリ分類タスクにおける既存の自己教師付きおよび異常検出手法を超越していることが示された。
さらに,限定ラベル付きデータセットを微調整した場合,提案手法は既存の自己教師付きモデルと比較して,優れたマルチクラス分類性能が得られる。
関連論文リスト
- Rethinking Contrastive Learning in Graph Anomaly Detection: A Clean-View Perspective [54.605073936695575]
グラフ異常検出は、Webセキュリティやファイナンシャル不正検出などの分野で広く応用されているグラフベースのデータにおいて、異常なパターンを特定することを目的としている。
既存の手法は対照的な学習に依存しており、ノードとその局所部分グラフの間のより低い類似性は異常を示すと仮定する。
干渉エッジの存在は、対照的な学習過程を損なう破壊的なノイズをもたらすため、この仮定を無効にする。
コントラスト学習プロセスにおいて重要な干渉源を特定するために,複数スケールの異常認識モジュールを含むクリーンビュー拡張グラフ異常検出フレームワーク(CVGAD)を提案する。
論文 参考訳(メタデータ) (2025-05-23T15:05:56Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Quantile-based Maximum Likelihood Training for Outlier Detection [5.902139925693801]
我々は,推定時の外乱分離を改善するために,不整合分布を学習するための量子化に基づく最大極大目標を提案する。
本手法は, 事前学習した識別特徴に正規化フローを適合させ, 評価されたログ類似度に応じて異常値を検出する。
論文 参考訳(メタデータ) (2023-08-20T22:27:54Z) - Incremental False Negative Detection for Contrastive Learning [95.68120675114878]
本稿では,自己指導型コントラスト学習のための新たな偽陰性検出手法を提案する。
対照的な学習では、検出された偽陰性を明示的に除去する2つの戦略について議論する。
提案手法は,制限された計算内での複数のベンチマークにおいて,他の自己教師付きコントラスト学習フレームワークよりも優れる。
論文 参考訳(メタデータ) (2021-06-07T15:29:14Z) - Solving Inefficiency of Self-supervised Representation Learning [87.30876679780532]
既存のコントラスト学習法は、非常に低い学習効率に苦しむ。
アンダークラスタリングとオーバークラスタリングの問題は、学習効率の大きな障害である。
中央三重項損失を用いた新しい自己監督学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-18T07:47:10Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。