論文の概要: SOUL: A Semi-supervised Open-world continUal Learning method for Network Intrusion Detection
- arxiv url: http://arxiv.org/abs/2412.00911v1
- Date: Sun, 01 Dec 2024 17:57:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:40:14.667016
- Title: SOUL: A Semi-supervised Open-world continUal Learning method for Network Intrusion Detection
- Title(参考訳): SOUL:ネットワーク侵入検知のための半教師付きオープンワールド連続学習手法
- Authors: Suresh Kumar Amalapuram, Shreya Kumar, Bheemarjuna Reddy Tamma, Sumohana Channappayya,
- Abstract要約: 本研究では,ラベル不足とオープンワールド学習(OWL)の設定に着目し,連続学習に基づくネットワーク侵入検出(NID)の攻撃クラス検出を改善する。
我々は,NID のOWLを SOUL と呼ばれる半教師付き連続学習法として定式化し,限定的な注釈付きデータを用いて,完全教師付きモデルと同等の分類性能を実現する。
提案手法は,4つの標準ネットワーク侵入検出データセットを用いて評価する。
- 参考スコア(独自算出の注目度): 2.8148957592979427
- License:
- Abstract: Fully supervised continual learning methods have shown improved attack traffic detection in a closed-world learning setting. However, obtaining fully annotated data is an arduous task in the security domain. Further, our research finds that after training a classifier on two days of network traffic, the performance decay of attack class detection over time (computed using the area under the time on precision-recall AUC of the attack class) drops from 0.985 to 0.506 on testing with three days of new test samples. In this work, we focus on label scarcity and open-world learning (OWL) settings to improve the attack class detection of the continual learning-based network intrusion detection (NID). We formulate OWL for NID as a semi-supervised continual learning-based method, dubbed SOUL, to achieve the classifier performance on par with fully supervised models while using limited annotated data. The proposed method is motivated by our empirical observation that using gradient projection memory (constructed using buffer memory samples) can significantly improve the detection performance of the attack (minority) class when trained using partially labeled data. Further, using the classifier's confidence in conjunction with buffer memory, SOUL generates high-confidence labels whenever it encounters OWL tasks closer to seen tasks, thus acting as a label generator. Interestingly, SOUL efficiently utilizes samples in the buffer memory for sample replay to avoid catastrophic forgetting, construct the projection memory, and assist in generating labels for unseen tasks. The proposed method is evaluated on four standard network intrusion detection datasets, and the performance results are closer to the fully supervised baselines using at most 20% labeled data while reducing the data annotation effort in the range of 11 to 45% for unseen data.
- Abstract(参考訳): 完全教師付き連続学習法では,閉世界学習環境における攻撃トラフィック検出の改善が示されている。
しかし、完全なアノテートされたデータを取得することは、セキュリティ領域における困難な作業である。
さらに,ネットワークトラフィックの2日間で分類器を訓練した後,3日間の試験試験において,攻撃クラス検出性能が0.985から0.506に低下することが判明した。
本研究では,ラベル不足とオープンワールド学習(OWL)の設定に着目し,連続学習に基づくネットワーク侵入検出(NID)の攻撃クラス検出を改善する。
我々は,NID のOWLを SOUL と呼ばれる半教師付き連続学習法として定式化し,限定的な注釈付きデータを用いて,完全教師付きモデルと同等の分類性能を実現する。
提案手法は, グラデーションプロジェクションメモリ(バッファメモリサンプルを用いた構成)を用いて, 部分的にラベル付けされたデータを用いてトレーニングした場合の攻撃(マイノリティ)クラスの検出性能を著しく向上させることができるという経験的観察に動機づけられた。
さらに、バッファメモリと連動して分類器の信頼性を利用して、SOULはOWLタスクに遭遇するたびに高信頼のラベルを生成し、ラベルジェネレータとして機能する。
興味深いことに、SOULはバッファメモリのサンプルを効率的に利用してサンプル再生を行い、破滅的な忘れを回避し、プロジェクションメモリを構築し、目に見えないタスクのラベルを生成する。
提案手法は4つの標準ネットワーク侵入検出データセットで評価され、性能は20%以上のラベル付きデータを用いて完全に教師付きベースラインに近づき、未確認データに対して11~45%の範囲でデータアノテーションの労力を削減した。
関連論文リスト
- Class-Wise Buffer Management for Incremental Object Detection: An
Effective Buffer Training Strategy [11.109975137910881]
クラスインクリメンタル学習は、既存のモデルに目に見えないクラスインスタンスを継続的に追加する際に発生する問題を解決することを目的としている。
オブジェクト検出に最適化されたリプレイバッファを生成する効果的なバッファトレーニング戦略(eBTS)を導入する。
論文 参考訳(メタデータ) (2023-12-14T17:10:09Z) - KAKURENBO: Adaptively Hiding Samples in Deep Neural Network Training [2.8804804517897935]
深層ニューラルネットワークのトレーニングにおいて,最も重要でないサンプルを隠蔽する手法を提案する。
我々は,学習プロセス全体への貢献に基づいて,与えられたエポックを除外するサンプルを適応的に見つける。
本手法は, ベースラインと比較して, 最大22%の精度でトレーニング時間を短縮できる。
論文 参考訳(メタデータ) (2023-10-16T06:19:29Z) - STEdge: Self-training Edge Detection with Multi-layer Teaching and
Regularization [15.579360385857129]
大規模未ラベル画像データセットの未使用富を活用した自己学習エッジ検出の課題について検討する。
マルチレイヤの正規化と自己学習を併用した自己教師型フレームワークを設計する。
本手法は,未確認のBIPEDデータセットを用いて,ODSが4.8%,OISが5.8%向上した。
論文 参考訳(メタデータ) (2022-01-13T18:26:36Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z) - Active Learning Under Malicious Mislabeling and Poisoning Attacks [2.4660652494309936]
ディープニューラルネットワークは通常、トレーニングのために大きなラベル付きデータセットを必要とする。
これらのデータのほとんどはラベルなしであり、データ中毒攻撃に弱い。
本稿では,ラベル付きインスタンスの少ない効率的な能動的学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-01T03:43:36Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - A Deep Unsupervised Feature Learning Spiking Neural Network with
Binarized Classification Layers for EMNIST Classification using SpykeFlow [0.0]
二成分アクティベーションを用いたスパイクタイミング依存塑性(STDP)の教師なし学習技術は、スパイク入力データから特徴を抽出するために用いられる。
バランスの取れたEMNISTデータセットに対するアキュラシーは、他のアプローチと好意的に比較した。
論文 参考訳(メタデータ) (2020-02-26T23:47:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。