論文の概要: Explaining Network Intrusion Detection System Using Explainable AI
Framework
- arxiv url: http://arxiv.org/abs/2103.07110v1
- Date: Fri, 12 Mar 2021 07:15:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-15 21:44:06.371202
- Title: Explaining Network Intrusion Detection System Using Explainable AI
Framework
- Title(参考訳): 説明可能なAIフレームワークを用いたネットワーク侵入検知システム
- Authors: Shraddha Mane, Dattaraj Rao
- Abstract要約: 侵入検知システムは、今日の世界のサイバー安全の重要なレイヤーの1つです。
本稿では,ディープニューラルネットワークを用いてネットワーク侵入検出を行った。
また、機械学習パイプラインの各段階で透明性を追加する説明可能なAIフレームワークも提案しました。
- 参考スコア(独自算出の注目度): 0.5076419064097734
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cybersecurity is a domain where the data distribution is constantly changing
with attackers exploring newer patterns to attack cyber infrastructure.
Intrusion detection system is one of the important layers in cyber safety in
today's world. Machine learning based network intrusion detection systems
started showing effective results in recent years. With deep learning models,
detection rates of network intrusion detection system are improved. More
accurate the model, more the complexity and hence less the interpretability.
Deep neural networks are complex and hard to interpret which makes difficult to
use them in production as reasons behind their decisions are unknown. In this
paper, we have used deep neural network for network intrusion detection and
also proposed explainable AI framework to add transparency at every stage of
machine learning pipeline. This is done by leveraging Explainable AI algorithms
which focus on making ML models less of black boxes by providing explanations
as to why a prediction is made. Explanations give us measurable factors as to
what features influence the prediction of a cyberattack and to what degree.
These explanations are generated from SHAP, LIME, Contrastive Explanations
Method, ProtoDash and Boolean Decision Rules via Column Generation. We apply
these approaches to NSL KDD dataset for intrusion detection system and
demonstrate results.
- Abstract(参考訳): サイバーセキュリティは、サイバーインフラを攻撃する新しいパターンを探求する攻撃者とのデータ分布が絶えず変化しているドメインです。
侵入検知システムは、今日の世界のサイバー安全の重要なレイヤーの1つです。
近年,機械学習によるネットワーク侵入検知システムが有効性を示した。
ディープラーニングモデルでは、ネットワーク侵入検知システムの検出率が改善される。
モデルがより正確になり、複雑さが増し、解釈性が低下する。
ディープニューラルネットワークは複雑で解釈が難しいため、意思決定の背後にある理由が分からないため、プロダクションで使用するのが難しい。
本稿では,ディープニューラルネットワークをネットワーク侵入検出に使用し,機械学習パイプラインのすべてのステージに透過性を加えるための説明可能なaiフレームワークを提案する。
これは、予測された理由に関する説明を提供することで、MLモデルをブラックボックスより少なくすることに焦点を当てた説明可能なAIアルゴリズムを活用することで実現される。
説明は、サイバー攻撃の予測にどのような特徴が影響するか、そしてどの程度まで測定可能な要因を提供します。
これらの説明は SHAP, LIME, Contrastive Explanations Method, ProtoDash, Boolean Decision Rules から列生成を介して生成される。
侵入検知システムのためのNSL KDDデータセットにこれらの手法を適用し,結果を実証する。
関連論文リスト
- Characterizing out-of-distribution generalization of neural networks: application to the disordered Su-Schrieffer-Heeger model [38.79241114146971]
本稿では、量子位相の分類を訓練したニューラルネットワークの予測において、解釈可能性の手法が信頼を高める方法を示す。
特に, 複雑な分類問題において, 分配外分布の一般化を確実にできることを示す。
この研究は,解釈可能性手法の体系的利用が,科学的問題におけるNNの性能をいかに向上させるかを示す一例である。
論文 参考訳(メタデータ) (2024-06-14T13:24:32Z) - Graph Neural Networks for Vulnerability Detection: A Counterfactual Explanation [41.831831628421675]
グラフニューラルネットワーク(GNN)は、脆弱性検出のための顕著なコード埋め込みアプローチとして登場した。
本稿では,GNNに基づく脆弱性検出のための新しいファクト・ファクト・アナライザCFExplainerを提案する。
論文 参考訳(メタデータ) (2024-04-24T06:52:53Z) - X-CBA: Explainability Aided CatBoosted Anomal-E for Intrusion Detection System [2.556190321164248]
Intrusion Detection Systemsにおける機械学習(ML)モデルとディープラーニング(DL)モデルの使用は、不透明な意思決定による信頼の欠如につながっている。
本稿では、グラフニューラルネットワーク(GNN)の構造的利点を活用して、ネットワークトラフィックデータを効率的に処理する新しい説明可能なIDS手法であるX-CBAを提案する。
本手法は、脅威検出の99.47%で高精度に達成し、その分析結果の明確で実用的な説明を提供する。
論文 参考訳(メタデータ) (2024-02-01T18:29:16Z) - Detection, Explanation and Filtering of Cyber Attacks Combining Symbolic
and Sub-Symbolic Methods [0.0]
我々は、ドメイン知識を取り入れたサイバーセキュリティの分野で、象徴的およびサブシンボル的手法の組み合わせを検討している。
提案手法は,様々なシナリオに対するアラートの直感的な説明を生成する。
説明はアラートに関する深い洞察を提供するだけでなく、偽陽性の警告を66%、忠実度メトリックを含めると93%減少させる。
論文 参考訳(メタデータ) (2022-12-23T09:03:51Z) - Backdoor Attack Detection in Computer Vision by Applying Matrix
Factorization on the Weights of Deep Networks [6.44397009982949]
本稿では,事前訓練したDNNの重みから特徴を抽出するバックドア検出手法を提案する。
他の検出技術と比較して、これはトレーニングデータを必要としないなど、多くのメリットがある。
提案手法は, 競合するアルゴリズムよりも効率性が高く, より正確であり, 深層学習とAIの安全な適用を確実にするのに役立つ。
論文 参考訳(メタデータ) (2022-12-15T20:20:18Z) - Sufficient Reasons for A Zero-Day Intrusion Detection Artificial Immune
System [40.31029890303761]
機械学習モデルの解釈可能性と透明性は、AIによる侵入検出結果に対する信頼の基盤である。
本稿では,人工免疫システムに基づく厳密な解釈可能な人工知能による侵入検出手法を提案する。
論文 参考訳(メタデータ) (2022-04-05T14:46:08Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Self-Supervised and Interpretable Anomaly Detection using Network
Transformers [1.0705399532413615]
本稿では,異常検出のためのNetwork Transformer(NeT)モデルを提案する。
NeTは、解釈性を改善するために、通信ネットワークのグラフ構造を組み込んでいる。
提案手法は, 産業制御システムにおける異常検出の精度を評価することによって検証された。
論文 参考訳(メタデータ) (2022-02-25T22:05:59Z) - Intrusion detection in computer systems by using artificial neural
networks with Deep Learning approaches [0.0]
コンピュータネットワークへの侵入検知は、サイバーセキュリティにおける最も重要な問題の1つとなっている。
本稿では,ディープラーニングアーキテクチャに基づく侵入検知システムの設計と実装に焦点を当てる。
論文 参考訳(メタデータ) (2020-12-15T19:12:23Z) - Cassandra: Detecting Trojaned Networks from Adversarial Perturbations [92.43879594465422]
多くの場合、事前トレーニングされたモデルは、トロイの木馬の振る舞いをモデルに挿入するためにトレーニングパイプラインを中断したかもしれないベンダーから派生している。
本稿では,事前学習したモデルがトロイの木馬か良馬かを検証する手法を提案する。
本手法は,ニューラルネットワークの指紋を,ネットワーク勾配から学習した逆方向の摂動の形でキャプチャする。
論文 参考訳(メタデータ) (2020-07-28T19:00:40Z) - Firearm Detection and Segmentation Using an Ensemble of Semantic Neural
Networks [62.997667081978825]
本稿では,意味的畳み込みニューラルネットワークのアンサンブルに基づく兵器検出システムを提案する。
特定のタスクに特化した単純なニューラルネットワークのセットは、計算リソースを少なくし、並列にトレーニングすることができる。
個々のネットワークの出力の集約によって与えられるシステムの全体的な出力は、ユーザが偽陽性と偽陰性とをトレードオフするように調整することができる。
論文 参考訳(メタデータ) (2020-02-11T13:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。