論文の概要: ExpIDS: A Drift-adaptable Network Intrusion Detection System With Improved Explainability
- arxiv url: http://arxiv.org/abs/2509.20767v1
- Date: Thu, 25 Sep 2025 05:47:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.712043
- Title: ExpIDS: A Drift-adaptable Network Intrusion Detection System With Improved Explainability
- Title(参考訳): ExpIDS:説明性を改善したドリフト適応型ネットワーク侵入検知システム
- Authors: Ayush Kumar, Kar Wai Fok, Vrizlynn L. L. Thing,
- Abstract要約: 深層学習に基づくNIDS ExpIDS を設計し,高い決定木説明精度を実現する。
我々は、ExpIDSが、最先端NIDSに匹敵する、高い決定木説明忠実度と悪意のあるトラフィック検出性能を達成することを検証した。
- 参考スコア(独自算出の注目度): 2.0534157929647443
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Despite all the advantages associated with Network Intrusion Detection Systems (NIDSs) that utilize machine learning (ML) models, there is a significant reluctance among cyber security experts to implement these models in real-world production settings. This is primarily because of their opaque nature, meaning it is unclear how and why the models make their decisions. In this work, we design a deep learning-based NIDS, ExpIDS to have high decision tree explanation fidelity, i.e., the predictions of decision tree explanation corresponding to ExpIDS should be as close to ExpIDS's predictions as possible. ExpIDS can also adapt to changes in network traffic distribution (drift). With the help of extensive experiments, we verify that ExpIDS achieves higher decision tree explanation fidelity and a malicious traffic detection performance comparable to state-of-the-art NIDSs for common attacks with varying levels of real-world drift.
- Abstract(参考訳): 機械学習(ML)モデルを利用するネットワーク侵入検知システム(NIDS)に関係した利点はいくつかあるが、現実のプロダクション環境でこれらのモデルを実装するサイバーセキュリティの専門家の間では大きな反響がある。
これは主に不透明な性質のためであり、モデルがどのように意思決定を行うのか、なぜなのかは不明である。
本研究では,深い学習に基づくNIDSであるExpIDSを,高い決定木説明忠実度を持つように設計し,ExpIDSに対応する決定木説明の予測はExpIDSの予測に可能な限り近いべきである。
ExpIDSは、ネットワークトラフィックの分散(ドリフト)の変化にも適応できる。
大規模な実験により,ExpIDSは実世界のドリフトのレベルが異なる攻撃に対して,最先端のNIDSに匹敵する高い決定木説明忠実度と悪意のあるトラフィック検出性能を達成できることを確認した。
関連論文リスト
- Neural Networks Decoded: Targeted and Robust Analysis of Neural Network Decisions via Causal Explanations and Reasoning [9.947555560412397]
本稿では、因果推論理論に基づく新しい手法TRACERを紹介し、DNN決定の根底にある因果ダイナミクスを推定する。
提案手法は入力特徴に系統的に介入し,特定の変化がネットワークを介してどのように伝播するかを観察し,内部の活性化と最終的な出力に影響を与える。
TRACERはさらに、モデルバイアスの可能性のある反ファクトを生成することで説明可能性を高め、誤分類に対する対照的な説明を提供する。
論文 参考訳(メタデータ) (2024-10-07T20:44:53Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - X-CBA: Explainability Aided CatBoosted Anomal-E for Intrusion Detection System [2.556190321164248]
Intrusion Detection Systemsにおける機械学習(ML)モデルとディープラーニング(DL)モデルの使用は、不透明な意思決定による信頼の欠如につながっている。
本稿では、グラフニューラルネットワーク(GNN)の構造的利点を活用して、ネットワークトラフィックデータを効率的に処理する新しい説明可能なIDS手法であるX-CBAを提案する。
本手法は、脅威検出の99.47%で高精度に達成し、その分析結果の明確で実用的な説明を提供する。
論文 参考訳(メタデータ) (2024-02-01T18:29:16Z) - An Explainable Ensemble-based Intrusion Detection System for Software-Defined Vehicle Ad-hoc Networks [0.0]
本研究では,アンサンブルに基づく機械学習による車両ネットワークにおけるサイバー脅威の検出について検討する。
我々は,Random Forest と CatBoost を主要な研究者として用いたモデルを提案し,ロジスティック回帰を用いて最終的な決定を下す。
我々は,本手法が分類精度を向上し,過去の研究に比べて誤分類が少ないことを観察した。
論文 参考訳(メタデータ) (2023-12-08T10:39:18Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Be Your Own Neighborhood: Detecting Adversarial Example by the
Neighborhood Relations Built on Self-Supervised Learning [64.78972193105443]
本稿では,予測に有効な新しいAE検出フレームワークを提案する。
AEの異常な関係と拡張バージョンを区別して検出を行う。
表現を抽出し、ラベルを予測するために、既製の自己監視学習(SSL)モデルが使用される。
論文 参考訳(メタデータ) (2022-08-31T08:18:44Z) - Explaining Network Intrusion Detection System Using Explainable AI
Framework [0.5076419064097734]
侵入検知システムは、今日の世界のサイバー安全の重要なレイヤーの1つです。
本稿では,ディープニューラルネットワークを用いてネットワーク侵入検出を行った。
また、機械学習パイプラインの各段階で透明性を追加する説明可能なAIフレームワークも提案しました。
論文 参考訳(メタデータ) (2021-03-12T07:15:09Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z) - Hold me tight! Influence of discriminative features on deep network
boundaries [63.627760598441796]
本稿では,データセットの特徴と,サンプルから決定境界までの距離を関連付ける新しい視点を提案する。
これにより、トレーニングサンプルの位置を慎重に調整し、大規模ビジョンデータセットでトレーニングされたCNNの境界における誘発された変化を測定することができる。
論文 参考訳(メタデータ) (2020-02-15T09:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。