論文の概要: Extending XReason: Formal Explanations for Adversarial Detection
- arxiv url: http://arxiv.org/abs/2501.00537v1
- Date: Tue, 31 Dec 2024 16:45:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:17:05.628754
- Title: Extending XReason: Formal Explanations for Adversarial Detection
- Title(参考訳): 拡張XReason: 逆検出のための形式的説明
- Authors: Amira Jemaa, Adnan Rashid, Sofiene Tahar,
- Abstract要約: XReasonツールを拡張して、LightGBMモデルとクラスレベルの説明をサポートします。
また,XReasonにおける逆例の生成と検出を行う機構を実装した。
また,CICIDS-2017データセット上でのアプローチの有効性と精度を評価した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Explainable Artificial Intelligence (XAI) plays an important role in improving the transparency and reliability of complex machine learning models, especially in critical domains such as cybersecurity. Despite the prevalence of heuristic interpretation methods such as SHAP and LIME, these techniques often lack formal guarantees and may produce inconsistent local explanations. To fulfill this need, few tools have emerged that use formal methods to provide formal explanations. Among these, XReason uses a SAT solver to generate formal instance-level explanation for XGBoost models. In this paper, we extend the XReason tool to support LightGBM models as well as class-level explanations. Additionally, we implement a mechanism to generate and detect adversarial examples in XReason. We evaluate the efficiency and accuracy of our approach on the CICIDS-2017 dataset, a widely used benchmark for detecting network attacks.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、複雑な機械学習モデルの透明性と信頼性、特にサイバーセキュリティのような重要な領域において重要な役割を果たす。
SHAPやLIMEのようなヒューリスティックな解釈法が普及しているにもかかわらず、これらの手法は形式的な保証を欠いていることが多く、矛盾する局所的な説明を生み出す可能性がある。
このニーズを満たすために、公式な説明を提供する形式的なメソッドを使用するツールがいくつか現れている。
これらのうち、XReasonはSATソルバを使用して、XGBoostモデルの正式なインスタンスレベルの説明を生成する。
本稿では,LightGBMモデルとクラスレベルの説明をサポートするために,XReasonツールを拡張した。
さらに,XReasonにおける逆例の生成と検出を行う機構を実装した。
ネットワーク攻撃を検出するために広く利用されているベンチマークであるCICIDS-2017データセットに対して,我々のアプローチの有効性と精度を評価した。
関連論文リスト
- Explainable Malware Detection with Tailored Logic Explained Networks [9.506820624395447]
マルウェア検出は、新しい攻撃技術が急速に発達しているため、サイバーセキュリティにおいて恒常的な課題である。
従来のシグネチャベースのアプローチは、大量のマルウェアサンプルとペースを維持するのに苦労している。
マシンラーニングは有望なソリューションを提供するが、見つからないサンプルへの一般化と、マルウェアとして特定されたインスタンスの説明の欠如という問題に直面している。
論文 参考訳(メタデータ) (2024-05-05T17:36:02Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - X Hacking: The Threat of Misguided AutoML [2.3011205420794574]
本稿では、シャップ値などのXAIメトリクスに適用されたpハックの一種であるXハックの概念を紹介する。
自動機械学習パイプラインは、共通のベースラインに優れたパフォーマンスを維持しつつ、望ましい説明を生成する「防御可能な」モデルを探すためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2024-01-16T17:21:33Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - The privacy issue of counterfactual explanations: explanation linkage
attacks [0.0]
本稿では、インスタンスベースの戦略をデプロイして、偽説明を見つける際に発生する説明リンク攻撃について紹介する。
このような攻撃に対抗するため、我々はk匿名の偽物説明を提案し、これらのk匿名の偽物説明の有効性を評価するための新しい指標として純粋性を導入する。
この結果から,データセット全体ではなく,k-匿名で説明を行うことが,説明の質に有益であることが示唆された。
論文 参考訳(メタデータ) (2022-10-21T15:44:19Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Interpretable Data-Based Explanations for Fairness Debugging [7.266116143672294]
Gopherは、バイアスや予期せぬモデルの振る舞いに関するコンパクトで解釈可能な、因果的な説明を生成するシステムである。
我々は,学習データに介入する程度を,サブセットの削除や更新によって定量化する因果責任の概念を導入し,バイアスを解消する。
この概念に基づいて、モデルバイアスを説明するトップkパターンを生成するための効率的なアプローチを開発する。
論文 参考訳(メタデータ) (2021-12-17T20:10:00Z) - DA-DGCEx: Ensuring Validity of Deep Guided Counterfactual Explanations
With Distribution-Aware Autoencoder Loss [0.0]
ディープラーニングモデルは、解釈可能性の欠如により、しばしばブラックボックスと見なされる。
本稿では,DA-DGCEx(Deep Guided Counterfactual Explanations)について述べる。
DGCExのコスト関数に、分散の反ファクトなインスタンスからペナルティを課す用語を追加する。
論文 参考訳(メタデータ) (2021-04-19T05:44:18Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。