論文の概要: Eclectic Rule Extraction for Explainability of Deep Neural Network based
Intrusion Detection Systems
- arxiv url: http://arxiv.org/abs/2401.10207v1
- Date: Thu, 18 Jan 2024 18:45:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 15:20:40.961911
- Title: Eclectic Rule Extraction for Explainability of Deep Neural Network based
Intrusion Detection Systems
- Title(参考訳): 深層ニューラルネットワークに基づく侵入検知システムの説明可能性のための折返し規則抽出
- Authors: Jesse Ables, Nathaniel Childers, William Anderson, Sudip Mittal,
Shahram Rahimi, Ioana Banicescu, Maria Seale
- Abstract要約: この論文は、説明可能な侵入検知システム(X-IDS)におけるブラックボックスアルゴリズムと代理説明器の普遍性から生じる信頼問題に対処する。
この問題を回避するために、ルール抽出(RE)のような透明なホワイトボックスアルゴリズムを使用することができる。
提案したハイブリッドX-IDSアーキテクチャは、ブラックボックスディープニューラルネットワーク(DNN)のためのホワイトボックスサロゲート説明器として、エクレクティックREを特徴としている。
- 参考スコア(独自算出の注目度): 2.913761513290171
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper addresses trust issues created from the ubiquity of black box
algorithms and surrogate explainers in Explainable Intrusion Detection Systems
(X-IDS). While Explainable Artificial Intelligence (XAI) aims to enhance
transparency, black box surrogate explainers, such as Local Interpretable
Model-Agnostic Explanation (LIME) and SHapley Additive exPlanation (SHAP), are
difficult to trust. The black box nature of these surrogate explainers makes
the process behind explanation generation opaque and difficult to understand.
To avoid this problem, one can use transparent white box algorithms such as
Rule Extraction (RE). There are three types of RE algorithms: pedagogical,
decompositional, and eclectic. Pedagogical methods offer fast but untrustworthy
white-box explanations, while decompositional RE provides trustworthy
explanations with poor scalability. This work explores eclectic rule
extraction, which strikes a balance between scalability and trustworthiness. By
combining techniques from pedagogical and decompositional approaches, eclectic
rule extraction leverages the advantages of both, while mitigating some of
their drawbacks. The proposed Hybrid X-IDS architecture features eclectic RE as
a white box surrogate explainer for black box Deep Neural Networks (DNN). The
presented eclectic RE algorithm extracts human-readable rules from hidden
layers, facilitating explainable and trustworthy rulesets. Evaluations on
UNSW-NB15 and CIC-IDS-2017 datasets demonstrate the algorithm's ability to
generate rulesets with 99.9% accuracy, mimicking DNN outputs. The contributions
of this work include the hybrid X-IDS architecture, the eclectic rule
extraction algorithm applicable to intrusion detection datasets, and a thorough
analysis of performance and explainability, demonstrating the trade-offs
involved in rule extraction speed and accuracy.
- Abstract(参考訳): 本稿では, 説明可能な侵入検知システム (X-IDS) におけるブラックボックスアルゴリズムとサロゲート説明器の多用性から生じる信頼問題に対処する。
説明可能な人工知能(XAI)は透明性を高めることを目的としているが、ローカル解釈可能なモデル非依存説明(LIME)やSHAP(SHAP)のようなブラックボックスサロゲートの説明器は信頼できない。
これらのサロゲートの説明器のブラックボックスの性質は、説明生成の不透明で理解しづらくなる。
この問題を回避するために、ルール抽出(RE)のような透明なホワイトボックスアルゴリズムを使用することができる。
reアルゴリズムには3つのタイプがある: 教育的、分解的、折返し的。
教育的手法は高速だが信頼できないホワイトボックスの説明を提供するが、分解的REはスケーラビリティの低い信頼できる説明を提供する。
この研究は、スケーラビリティと信頼性のバランスを崩すエクレクティックなルール抽出を探求する。
教育的アプローチと分解的アプローチのテクニックを組み合わせることで、エクレクティックルール抽出は両方の利点を生かし、その欠点のいくつかを緩和する。
提案したHybrid X-IDSアーキテクチャは、ブラックボックスディープニューラルネットワーク(DNN)のためのホワイトボックスサロゲート説明器として、エクレクティックREを備えている。
提案するreアルゴリズムは,人間が読みやすいルールを隠れたレイヤから抽出し,説明可能かつ信頼性の高いルールセットを促進する。
UNSW-NB15とCIC-IDS-2017データセットの評価は、DNN出力を模倣して99.9%の精度でルールセットを生成するアルゴリズムの能力を示している。
この研究の貢献には、ハイブリッドx-idsアーキテクチャ、侵入検出データセットに適用可能な折衝規則抽出アルゴリズム、および、ルール抽出速度と精度に関わるトレードオフを実証する性能と説明可能性の徹底的な分析が含まれる。
関連論文リスト
- Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - Efficient GNN Explanation via Learning Removal-based Attribution [56.18049062940675]
本稿では,LARA (LeArn removal-based Attribution) というGNN説明の枠組みを提案し,この問題に対処する。
LARAの解説者は、高い忠実度で説明を提供することができる除去に基づく属性を生成することを学ぶ。
特に、LARAは3.5倍高速で、大きなデータセットogbn-arxivの最先端の手法よりも忠実である。
論文 参考訳(メタデータ) (2023-06-09T08:54:20Z) - Disagreement amongst counterfactual explanations: How transparency can
be deceptive [0.0]
偽物の説明は、説明可能な人工知能技術としてますます使われている。
すべてのアルゴリズムが同じインスタンスに対して一様説明を生成するわけではない。
悪意のあるエージェントがこの多様性を使って不公平な機械学習モデルに見合うと、倫理的な問題が生じる。
論文 参考訳(メタデータ) (2023-04-25T09:15:37Z) - Towards Formal Approximated Minimal Explanations of Neural Networks [0.0]
ディープニューラルネットワーク(DNN)は現在、多くのドメインで使用されている。
DNNは「ブラックボックス」であり、人間には解釈できない。
そこで本研究では,最小限の説明を求めるための効率的な検証手法を提案する。
論文 参考訳(メタデータ) (2022-10-25T11:06:37Z) - Boundary-Aware Uncertainty for Feature Attribution Explainers [4.2130431095114895]
本稿では,不確実性を考慮した決定境界認識と説明関数近似の不確実性を組み合わせた統一的不確実性推定法を提案する。
提案するカーネルの類似性は,決定境界の複雑さによって増大することを示す。
複数のデータセットに対する実験結果から,GPECの不確実性推定は既存手法と比較して説明の理解を改善することが示された。
論文 参考訳(メタデータ) (2022-10-05T17:37:14Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - Robust and Stable Black Box Explanations [31.05743211871823]
ブラックボックスモデルの堅牢で安定した説明を生成するための新しいフレームワークを提案する。
我々はこのアルゴリズムを線形モデルと決定セットの形式で説明するためにインスタンス化する。
論文 参考訳(メタデータ) (2020-11-12T02:29:03Z) - Embedding and Extraction of Knowledge in Tree Ensemble Classifiers [11.762762974386684]
本稿では,木組分類器における知識の埋め込みと抽出について検討する。
そこで我々は,ブラックボックス設定のためのアルゴリズムと,ホワイトボックス設定のためのアルゴリズムの2つの新しい,効果的な組込みアルゴリズムを提案する。
本研究では,SMT (Satisfiability modulo theory)ソルバで解ける問題を削減することにより,組込み知識を抽出するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-10-16T10:09:01Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - An Information Bottleneck Approach for Controlling Conciseness in
Rationale Extraction [84.49035467829819]
我々は,情報ボトルネック(IB)の目的を最適化することで,このトレードオフをよりよく管理できることを示す。
我々の完全教師なしのアプローチは、文上のスパース二項マスクを予測する説明器と、抽出された合理性のみを考慮したエンドタスク予測器を共同で学習する。
論文 参考訳(メタデータ) (2020-05-01T23:26:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。