論文の概要: Human-Centered Explainable AI for Security Enhancement: A Deep Intrusion Detection Framework
- arxiv url: http://arxiv.org/abs/2602.13271v1
- Date: Wed, 04 Feb 2026 20:33:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 12:01:13.603554
- Title: Human-Centered Explainable AI for Security Enhancement: A Deep Intrusion Detection Framework
- Title(参考訳): セキュリティ強化のための人間中心の説明可能なAI:深層侵入検出フレームワーク
- Authors: Md Muntasir Jahid Ayan, Md. Shahriar Rashid, Tazzina Afroze Hassan, Hossain Md. Mubashshir Jamil, Mahbubul Islam, Lisan Al Amin, Rupak Kumar Das, Farzana Akter, Faisal Quader,
- Abstract要約: 本稿では,深層学習モデルの透明性を高めるために,説明可能な人工知能(XAI)を統合した新しいIDSフレームワークを提案する。
このフレームワークはベンチマークデータセットNSL-KDDを用いて実験的に評価され、従来のIDSやブラックボックス深層学習モデルと比較して優れた性能を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing complexity and frequency of cyber-threats demand intrusion detection systems (IDS) that are not only accurate but also interpretable. This paper presented a novel IDS framework that integrated Explainable Artificial Intelligence (XAI) to enhance transparency in deep learning models. The framework was evaluated experimentally using the benchmark dataset NSL-KDD, demonstrating superior performance compared to traditional IDS and black-box deep learning models. The proposed approach combined Convolutional Neural Network (CNN) and Long Short-Term Memory (LSTM) networks for capturing temporal dependencies in traffic sequences. Our deep learning results showed that both CNN and LSTM reached 0.99 for accuracy, whereas LSTM outperformed CNN at macro average precision, recall, and F-1 score. For weighted average precision, recall, and F-1 score, both models scored almost similarly. To ensure interpretability, the XAI model SHapley Additive exPlanations (SHAP) was incorporated, enabling security analysts to understand and validate model decisions. Some notable influential features were srv_serror_rate, dst_host_srv_serror_rate, and serror_rate for both models, as pointed out by SHAP. We also conducted a trust-focused expert survey based on IPIP6 and Big Five personality traits via an interactive UI to evaluate the system's reliability and usability. This work highlighted the potential of combining performance and transparency in cybersecurity solutions and recommends future enhancements through adaptive learning for real-time threat detection.
- Abstract(参考訳): サイバー脅威の複雑さと頻度の増大は、正確なだけでなく解釈可能な侵入検知システム(IDS)を必要とする。
本稿では,深層学習モデルの透明性を高めるために,説明可能な人工知能(XAI)を統合した新しいIDSフレームワークを提案する。
このフレームワークはベンチマークデータセットNSL-KDDを用いて実験的に評価され、従来のIDSやブラックボックス深層学習モデルと比較して優れた性能を示した。
提案手法は,コンボリューショナルニューラルネットワーク(CNN)とLong Short-Term Memory(LSTM)ネットワークを組み合わせて,トラフィックシーケンスの時間的依存関係をキャプチャする。
深層学習の結果,CNNとLSTMは精度0.99で,LSTMはマクロ平均精度,リコール,F-1スコアでCNNより優れていた。
重み付けされた平均精度、リコール、F-1のスコアについては、どちらもほぼ同様のスコアを得た。
解釈可能性を確保するため、XAIモデルSHAP(SHapley Additive ExPlanations)が導入された。
注目すべき重要な機能は、SHAPが指摘しているように、両方のモデルのsrv_serror_rate、dst_host_srv_serror_rate、serror_rateである。
また,IPIP6とBig Fiveのパーソナリティ特性をインタラクティブなUIで評価し,システムの信頼性とユーザビリティを評価した。
この研究は、サイバーセキュリティソリューションのパフォーマンスと透明性を組み合わせる可能性を強調し、リアルタイム脅威検出のための適応学習による将来の拡張を推奨している。
関連論文リスト
- Consistency-Regularized GAN for Few-Shot SAR Target Recognition [40.2533418376231]
合成開口レーダ(SAR)画像におけるわずかなショット認識は、極端なデータ不足のため、現実世界のアプリケーションにとって重要なボトルネックとなっている。
有望な戦略としては、GAN(Generative Adversarial Network)を備えた大規模なデータセット、自己教師付き学習(SSL)によるモデルの事前トレーニング、ラベル付きサンプルの微調整などがある。
このアプローチは基本的なパラドックスに直面する: 従来のGAN自身は、安定したトレーニングのために豊富なデータを必要とし、少数ショット学習の前提に反する。
多様な高次合成を目的とした新しいフレームワークCr-GANを提案する。
論文 参考訳(メタデータ) (2026-01-22T06:02:39Z) - Binary and Multiclass Cyberattack Classification on GeNIS Dataset [1.5440182356262886]
本研究では,AIに基づくNIDSのためのGeNISデータセットの信頼性を実験的に検証する。
3つの決定木アンサンブルと2つのディープニューラルネットワークがバイナリとマルチクラスの分類タスクのために訓練された。
全てのモデルは高い精度とF1スコアに達し、MLアンサンブルはDLモデルよりも若干優れた一般化を実現した。
論文 参考訳(メタデータ) (2025-11-11T15:46:14Z) - Attention Augmented GNN RNN-Attention Models for Advanced Cybersecurity Intrusion Detection [0.4369550829556577]
本稿では,グラフニューラルネットワーク(GNN),リカレントニューラルネットワーク(RNN),マルチヘッドアテンション機構を相乗的に組み合わせたハイブリッドディープラーニングアーキテクチャを提案する。
提案手法は,グラフ構造関係とネットワークイベントの逐次解析により,空間的依存関係を効果的に捉える。
統合されたアテンションメカニズムは、モデル解釈可能性の改善と機能選択の強化という2つの利点を提供し、サイバーセキュリティアナリストは、高インパクトなセキュリティイベントに計算リソースを集中させることができる。
論文 参考訳(メタデータ) (2025-10-29T03:47:02Z) - A Comparative Analysis of Ensemble-Based Machine Learning Approaches with Explainable AI for Multi-Class Intrusion Detection in Drone Networks [0.2708211191235587]
本研究の目的は、ドローンネットワークに適した堅牢で解釈可能な侵入検知フレームワークを開発することである。
我々は、ラベル付きデータセットでトレーニングされたランダムフォレスト、エクストラツリー、AdaBoost、CatBoost、XGBoostといったアンサンブルベースの機械学習モデルの比較分析を行う。
提案するアプローチは、ほぼ完全な精度を提供するだけでなく、解釈可能性も保証し、リアルタイムかつ安全クリティカルなドローン操作に非常に適している。
論文 参考訳(メタデータ) (2025-09-23T00:59:21Z) - Evaluating explainable AI for deep learning-based network intrusion detection system alert classification [0.7864304771129751]
ネットワーク侵入検知システム(NIDS)は、サイバー攻撃やその他の不要な活動のネットワークを監視する。
NIDSソリューションは、しばしば毎日圧倒的な数のアラートを発生させるため、アナリストが優先度の高い脅威を優先順位付けすることは困難である。
本研究は、信頼と解釈性を改善するために、NIDS警告分類における説明可能な人工知能(XAI)の重要性を強調した。
論文 参考訳(メタデータ) (2025-06-09T15:53:30Z) - Data-Driven Lipschitz Continuity: A Cost-Effective Approach to Improve Adversarial Robustness [47.9744734181236]
我々は、ディープニューラルネットワーク(DNN)の敵攻撃に対する堅牢性を証明するために、リプシッツ連続性の概念を探求する。
本稿では,入力領域を制約範囲に再マップし,リプシッツ定数を低減し,ロバスト性を高める新しいアルゴリズムを提案する。
本手法は,ロバストベンチリーダーボード上のCIFAR10,CIFAR100,ImageNetデータセットに対して,最も堅牢な精度を実現する。
論文 参考訳(メタデータ) (2024-06-28T03:10:36Z) - Novel Approach to Intrusion Detection: Introducing GAN-MSCNN-BILSTM with LIME Predictions [0.0]
本稿では、GAN(Generative Adversarial Networks)、MSCNN(Multi-Scale Convolutional Neural Networks)、Bidirectional Long Short-Term Memory(BiLSTM)を利用した革新的な侵入検知システムを提案する。
このシステムは、通常のパターンと攻撃パターンの両方を含む、現実的なネットワークトラフィックデータを生成する。
標準ベンチマークであるHogzillaデータセットの評価では、多クラス分類では99.16%、バイナリ分類では99.10%という印象的な精度を示している。
論文 参考訳(メタデータ) (2024-06-08T11:26:44Z) - Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - Multi-Agent Feedback Enabled Neural Networks for Intelligent
Communications [28.723523146324002]
本稿では,新しいマルチエージェントフィードバック対応ニューラルネットワーク(MAFENN)フレームワークを提案する。
MAFENNフレームワークは理論的には3人プレイのFeedback Stackelbergゲームに定式化され、このゲームはFeedback Stackelberg平衡に収束することが証明される。
無線通信におけるMAFENNフレームワークの実現可能性を検証するため,マルチエージェントMAFENNベースの等化器(MAFENN-E)を開発した。
論文 参考訳(メタデータ) (2022-05-22T05:28:43Z) - A Simple Approach to Improve Single-Model Deep Uncertainty via
Distance-Awareness [33.09831377640498]
本研究では,1つの決定論的表現に基づく1つのネットワークの不確実性向上手法について検討する。
本稿では,現代のDNNにおける距離認識能力を向上させる簡易な手法として,スペクトル正規化ニューラルガウス過程(SNGP)を提案する。
ビジョンと言語理解のベンチマークスイートでは、SNGPは予測、キャリブレーション、ドメイン外検出において、他の単一モデルアプローチよりも優れている。
論文 参考訳(メタデータ) (2022-05-01T05:46:13Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。