論文の概要: Towards Formal Approximated Minimal Explanations of Neural Networks
- arxiv url: http://arxiv.org/abs/2210.13915v1
- Date: Tue, 25 Oct 2022 11:06:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 16:02:30.250884
- Title: Towards Formal Approximated Minimal Explanations of Neural Networks
- Title(参考訳): ニューラルネットワークの形式近似最小説明に向けて
- Authors: Shahaf Bassan and Guy Katz
- Abstract要約: ディープニューラルネットワーク(DNN)は現在、多くのドメインで使用されている。
DNNは「ブラックボックス」であり、人間には解釈できない。
そこで本研究では,最小限の説明を求めるための効率的な検証手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid growth of machine learning, deep neural networks (DNNs) are
now being used in numerous domains. Unfortunately, DNNs are "black-boxes", and
cannot be interpreted by humans, which is a substantial concern in
safety-critical systems. To mitigate this issue, researchers have begun working
on explainable AI (XAI) methods, which can identify a subset of input features
that are the cause of a DNN's decision for a given input. Most existing
techniques are heuristic, and cannot guarantee the correctness of the
explanation provided. In contrast, recent and exciting attempts have shown that
formal methods can be used to generate provably correct explanations. Although
these methods are sound, the computational complexity of the underlying
verification problem limits their scalability; and the explanations they
produce might sometimes be overly complex. Here, we propose a novel approach to
tackle these limitations. We (1) suggest an efficient, verification-based
method for finding minimal explanations, which constitute a provable
approximation of the global, minimum explanation; (2) show how DNN verification
can assist in calculating lower and upper bounds on the optimal explanation;
(3) propose heuristics that significantly improve the scalability of the
verification process; and (4) suggest the use of bundles, which allows us to
arrive at more succinct and interpretable explanations. Our evaluation shows
that our approach significantly outperforms state-of-the-art techniques, and
produces explanations that are more useful to humans. We thus regard this work
as a step toward leveraging verification technology in producing DNNs that are
more reliable and comprehensible.
- Abstract(参考訳): 機械学習の急速な成長に伴い、ディープニューラルネットワーク(DNN)が多くのドメインで使用されている。
残念ながら、DNNは「ブラックボックス」であり、人間には解釈できない。
この問題を軽減するために、研究者らは、DNNの所定の入力に対する決定の原因となる入力機能のサブセットを識別できる、説明可能なAI(XAI)メソッドの開発に着手した。
既存の手法の多くはヒューリスティックであり、説明の正確性を保証することはできない。
対照的に、近年のエキサイティングな試みは、形式的手法が確実に正しい説明を生成するために使用できることを示した。
これらの手法は健全であるが、基礎となる検証問題の計算複雑性はスケーラビリティを制限し、それらが生み出す説明は複雑すぎることもある。
本稿では,これらの制約に取り組むための新しいアプローチを提案する。
1)大域的説明の証明可能な近似である最小的な説明を求める効率的な検証ベースの方法,(2)最適説明における下界と上界の計算にdnn検証がどのように役立つか,(3)検証プロセスのスケーラビリティを著しく向上させるヒューリスティックスを提案すること,(4)より簡潔で解釈可能な説明に到達できるバンドルの使用を提案する。
評価の結果,本手法は最先端技術よりも優れており,人間に有用な説明が得られた。
そこで我々は,本研究を,より信頼性が高く理解しやすいDNNの生成において,検証技術を活用するための一歩とみなす。
関連論文リスト
- QUCE: The Minimisation and Quantification of Path-Based Uncertainty for Generative Counterfactual Explanations [1.649938899766112]
Quantified Uncertainty Counterfactual Explanations (QUCE) は、経路の不確実性を最小化する手法である。
そこで本研究では,QUCEが説明文の提示時に不確実性を定量化し,より確実な逆実例を生成することを示す。
本稿では,QUCE法の性能を,経路に基づく説明法と生成対実例の両方の競合手法と比較することによって示す。
論文 参考訳(メタデータ) (2024-02-27T14:00:08Z) - Formally Explaining Neural Networks within Reactive Systems [3.0579224738630595]
ディープニューラルネットワーク(DNN)は、リアクティブシステムのコントローラとしてますます利用されている。
DNNは非常に不透明で、その動作の説明と正当化が難しい。
マルチステップ・リアクティブシステムの推論のための形式的DNN検証に基づくXAI手法を提案する。
論文 参考訳(メタデータ) (2023-07-31T20:19:50Z) - Efficient GNN Explanation via Learning Removal-based Attribution [56.18049062940675]
本稿では,LARA (LeArn removal-based Attribution) というGNN説明の枠組みを提案し,この問題に対処する。
LARAの解説者は、高い忠実度で説明を提供することができる除去に基づく属性を生成することを学ぶ。
特に、LARAは3.5倍高速で、大きなデータセットogbn-arxivの最先端の手法よりも忠実である。
論文 参考訳(メタデータ) (2023-06-09T08:54:20Z) - Empowering Counterfactual Reasoning over Graph Neural Networks through
Inductivity [7.094238868711952]
グラフニューラルネットワーク(GNN)には、薬物発見、レコメンデーションエンジン、チップ設計など、さまざまな実用的応用がある。
因果推論は、GNNの入力グラフの変更を最小限に抑えて予測を変更するために用いられる。
論文 参考訳(メタデータ) (2023-06-07T23:40:18Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - SEEN: Sharpening Explanations for Graph Neural Networks using
Explanations from Neighborhoods [0.0]
本稿では,補助的説明の集約によるノード分類タスクの説明品質の向上手法を提案する。
SEENを適用するにはグラフを変更する必要はなく、さまざまな説明可能性のテクニックで使用することができる。
与えられたグラフからモチーフ参加ノードをマッチングする実験では、説明精度が最大12.71%向上した。
論文 参考訳(メタデータ) (2021-06-16T03:04:46Z) - Explainability in Graph Neural Networks: A Taxonomic Survey [42.95574260417341]
グラフニューラルネットワーク(gnns)とその説明能力は急速に発展している。
GNNの説明可能性メソッドの統一された処理も、評価のための標準的なベンチマークとテストベッドもありません。
本研究はgnn説明可能性の統一的な方法論的処理と評価のための標準テストベッドを提供する。
論文 参考訳(メタデータ) (2020-12-31T04:34:27Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z) - Towards an Efficient and General Framework of Robust Training for Graph
Neural Networks [96.93500886136532]
グラフニューラルネットワーク(GNN)は、いくつかの基本的な推論タスクに大きく進歩している。
GNNの目覚ましい性能にもかかわらず、グラフ構造上の摂動を慎重に作り、誤った予測を下すことが観察されている。
我々は,強靭なGNNを得るために,欲求探索アルゴリズムとゼロ階法を利用する汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T15:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。