論文の概要: Explaining Network Intrusion Detection System Using Explainable AI
Framework
- arxiv url: http://arxiv.org/abs/2103.07110v1
- Date: Fri, 12 Mar 2021 07:15:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-15 21:44:06.371202
- Title: Explaining Network Intrusion Detection System Using Explainable AI
Framework
- Title(参考訳): 説明可能なAIフレームワークを用いたネットワーク侵入検知システム
- Authors: Shraddha Mane, Dattaraj Rao
- Abstract要約: 侵入検知システムは、今日の世界のサイバー安全の重要なレイヤーの1つです。
本稿では,ディープニューラルネットワークを用いてネットワーク侵入検出を行った。
また、機械学習パイプラインの各段階で透明性を追加する説明可能なAIフレームワークも提案しました。
- 参考スコア(独自算出の注目度): 0.5076419064097734
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cybersecurity is a domain where the data distribution is constantly changing
with attackers exploring newer patterns to attack cyber infrastructure.
Intrusion detection system is one of the important layers in cyber safety in
today's world. Machine learning based network intrusion detection systems
started showing effective results in recent years. With deep learning models,
detection rates of network intrusion detection system are improved. More
accurate the model, more the complexity and hence less the interpretability.
Deep neural networks are complex and hard to interpret which makes difficult to
use them in production as reasons behind their decisions are unknown. In this
paper, we have used deep neural network for network intrusion detection and
also proposed explainable AI framework to add transparency at every stage of
machine learning pipeline. This is done by leveraging Explainable AI algorithms
which focus on making ML models less of black boxes by providing explanations
as to why a prediction is made. Explanations give us measurable factors as to
what features influence the prediction of a cyberattack and to what degree.
These explanations are generated from SHAP, LIME, Contrastive Explanations
Method, ProtoDash and Boolean Decision Rules via Column Generation. We apply
these approaches to NSL KDD dataset for intrusion detection system and
demonstrate results.
- Abstract(参考訳): サイバーセキュリティは、サイバーインフラを攻撃する新しいパターンを探求する攻撃者とのデータ分布が絶えず変化しているドメインです。
侵入検知システムは、今日の世界のサイバー安全の重要なレイヤーの1つです。
近年,機械学習によるネットワーク侵入検知システムが有効性を示した。
ディープラーニングモデルでは、ネットワーク侵入検知システムの検出率が改善される。
モデルがより正確になり、複雑さが増し、解釈性が低下する。
ディープニューラルネットワークは複雑で解釈が難しいため、意思決定の背後にある理由が分からないため、プロダクションで使用するのが難しい。
本稿では,ディープニューラルネットワークをネットワーク侵入検出に使用し,機械学習パイプラインのすべてのステージに透過性を加えるための説明可能なaiフレームワークを提案する。
これは、予測された理由に関する説明を提供することで、MLモデルをブラックボックスより少なくすることに焦点を当てた説明可能なAIアルゴリズムを活用することで実現される。
説明は、サイバー攻撃の予測にどのような特徴が影響するか、そしてどの程度まで測定可能な要因を提供します。
これらの説明は SHAP, LIME, Contrastive Explanations Method, ProtoDash, Boolean Decision Rules から列生成を介して生成される。
侵入検知システムのためのNSL KDDデータセットにこれらの手法を適用し,結果を実証する。
関連論文リスト
- X-CBA: Explainability Aided CatBoosted Anomal-E for Intrusion Detection
System [2.7423984440051896]
Intrusion Detection Systemsにおける機械学習(ML)モデルとディープラーニング(DL)モデルの使用は、不透明な意思決定による信頼の欠如につながっている。
本稿では、グラフニューラルネットワーク(GNN)の構造的利点を活用して、ネットワークトラフィックデータを効率的に処理する新しい説明可能なIDS手法であるX-CBAを提案する。
本手法は、脅威検出の99.47%で高精度に達成し、その分析結果の明確で実用的な説明を提供する。
論文 参考訳(メタデータ) (2024-02-01T18:29:16Z) - Detection, Explanation and Filtering of Cyber Attacks Combining Symbolic
and Sub-Symbolic Methods [0.0]
我々は、ドメイン知識を取り入れたサイバーセキュリティの分野で、象徴的およびサブシンボル的手法の組み合わせを検討している。
提案手法は,様々なシナリオに対するアラートの直感的な説明を生成する。
説明はアラートに関する深い洞察を提供するだけでなく、偽陽性の警告を66%、忠実度メトリックを含めると93%減少させる。
論文 参考訳(メタデータ) (2022-12-23T09:03:51Z) - Backdoor Attack Detection in Computer Vision by Applying Matrix
Factorization on the Weights of Deep Networks [6.44397009982949]
本稿では,事前訓練したDNNの重みから特徴を抽出するバックドア検出手法を提案する。
他の検出技術と比較して、これはトレーニングデータを必要としないなど、多くのメリットがある。
提案手法は, 競合するアルゴリズムよりも効率性が高く, より正確であり, 深層学習とAIの安全な適用を確実にするのに役立つ。
論文 参考訳(メタデータ) (2022-12-15T20:20:18Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Self-Supervised and Interpretable Anomaly Detection using Network
Transformers [1.0705399532413615]
本稿では,異常検出のためのNetwork Transformer(NeT)モデルを提案する。
NeTは、解釈性を改善するために、通信ネットワークのグラフ構造を組み込んでいる。
提案手法は, 産業制御システムにおける異常検出の精度を評価することによって検証された。
論文 参考訳(メタデータ) (2022-02-25T22:05:59Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Intrusion detection in computer systems by using artificial neural
networks with Deep Learning approaches [0.0]
コンピュータネットワークへの侵入検知は、サイバーセキュリティにおける最も重要な問題の1つとなっている。
本稿では,ディープラーニングアーキテクチャに基づく侵入検知システムの設計と実装に焦点を当てる。
論文 参考訳(メタデータ) (2020-12-15T19:12:23Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Cassandra: Detecting Trojaned Networks from Adversarial Perturbations [92.43879594465422]
多くの場合、事前トレーニングされたモデルは、トロイの木馬の振る舞いをモデルに挿入するためにトレーニングパイプラインを中断したかもしれないベンダーから派生している。
本稿では,事前学習したモデルがトロイの木馬か良馬かを検証する手法を提案する。
本手法は,ニューラルネットワークの指紋を,ネットワーク勾配から学習した逆方向の摂動の形でキャプチャする。
論文 参考訳(メタデータ) (2020-07-28T19:00:40Z) - Firearm Detection and Segmentation Using an Ensemble of Semantic Neural
Networks [62.997667081978825]
本稿では,意味的畳み込みニューラルネットワークのアンサンブルに基づく兵器検出システムを提案する。
特定のタスクに特化した単純なニューラルネットワークのセットは、計算リソースを少なくし、並列にトレーニングすることができる。
個々のネットワークの出力の集約によって与えられるシステムの全体的な出力は、ユーザが偽陽性と偽陰性とをトレードオフするように調整することができる。
論文 参考訳(メタデータ) (2020-02-11T13:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。