論文の概要: SUNY: A Visual Interpretation Framework for Convolutional Neural Networks from a Necessary and Sufficient Perspective
- arxiv url: http://arxiv.org/abs/2303.00244v2
- Date: Sat, 4 May 2024 05:29:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 01:45:50.002017
- Title: SUNY: A Visual Interpretation Framework for Convolutional Neural Networks from a Necessary and Sufficient Perspective
- Title(参考訳): SUNY: 必要かつ十分の観点からの畳み込みニューラルネットワークの視覚的解釈フレームワーク
- Authors: Xiwei Xuan, Ziquan Deng, Hsuan-Tien Lin, Zhaodan Kong, Kwan-Liu Ma,
- Abstract要約: 本稿では,より優れた人間の理解に向けた説明を合理化するための因果関係駆動型フレームワークSUNYを提案する。
CNNモデルの入力特徴や内部フィルタを仮説的原因として用いて、SUNYは必要な視点と十分な視点の両方について双方向の定量化による説明を生成する。
- 参考スコア(独自算出の注目度): 23.175703929763888
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Researchers have proposed various methods for visually interpreting the Convolutional Neural Network (CNN) via saliency maps, which include Class-Activation-Map (CAM) based approaches as a leading family. However, in terms of the internal design logic, existing CAM-based approaches often overlook the causal perspective that answers the core "why" question to help humans understand the explanation. Additionally, current CNN explanations lack the consideration of both necessity and sufficiency, two complementary sides of a desirable explanation. This paper presents a causality-driven framework, SUNY, designed to rationalize the explanations toward better human understanding. Using the CNN model's input features or internal filters as hypothetical causes, SUNY generates explanations by bi-directional quantifications on both the necessary and sufficient perspectives. Extensive evaluations justify that SUNY not only produces more informative and convincing explanations from the angles of necessity and sufficiency, but also achieves performances competitive to other approaches across different CNN architectures over large-scale datasets, including ILSVRC2012 and CUB-200-2011.
- Abstract(参考訳): 研究者たちは、CAM(Class-Activation-Map)ベースのアプローチを主要なファミリーとして含む、サリエンシマップを通じて、畳み込みニューラルネットワーク(CNN)を視覚的に解釈する様々な方法を提案している。
しかしながら、内部設計の論理の観点からは、既存のCAMベースのアプローチは、人間が説明を理解するのを助けるために、中核的な「なぜ」疑問に答える因果的な視点をしばしば見落としている。
さらに、現在のCNNの説明には、望ましい説明の2つの相補的な側面である必要と十分性の両方について考慮されていない。
本稿では,より優れた人間の理解に向けた説明を合理化するための因果関係駆動型フレームワークSUNYを提案する。
CNNモデルの入力特徴や内部フィルタを仮説的原因として用いて、SUNYは必要な視点と十分な視点の両方について双方向の定量化による説明を生成する。
広範な評価は、SUNYが必要と十分性の角度からより情報的で説得力のある説明を生成するだけでなく、ILSVRC2012やCUB-200-2011を含む大規模データセットよりも、さまざまなCNNアーキテクチャをまたいだ他のアプローチと競合するパフォーマンスを達成することを正当化している。
関連論文リスト
- Dynamic Clue Bottlenecks: Towards Interpretable-by-Design Visual Question Answering [58.64831511644917]
本稿では, モデル決定を中間的人間法的な説明に分解する設計モデルを提案する。
我々は、我々の本質的に解釈可能なシステムは、推論に焦点をあてた質問において、同等のブラックボックスシステムよりも4.64%改善できることを示した。
論文 参考訳(メタデータ) (2023-05-24T08:33:15Z) - FlowX: Towards Explainable Graph Neural Networks via Message Flows [59.025023020402365]
グラフニューラルネットワーク(GNN)の動作メカニズム解明へのステップとして,その説明可能性について検討する。
本稿では,重要なメッセージフローを識別してGNNを説明するために,FlowXと呼ばれる新しい手法を提案する。
そこで我々は,多様な説明対象に向けて,フロースコアを学習するための情報制御学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-26T22:48:15Z) - On Consistency in Graph Neural Network Interpretation [34.25952902469481]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案されているが、その多くは最小の部分グラフを探索することによってこのタスクを定式化している。
埋め込みの整列による簡易かつ効果的な対策を提案する。
論文 参考訳(メタデータ) (2022-05-27T02:58:07Z) - Learning and Evaluating Graph Neural Network Explanations based on
Counterfactual and Factual Reasoning [46.20269166675735]
グラフニューラルネットワーク(GNN)は、構造データに対する学習表現に大きな利点を示している。
本稿では、因果推論理論から推論した対実的・実的(CF2)の知見を取り入れ、学習と評価の両問題を解き明かす。
基礎構造を必要とせずに生成した説明を定量的に評価するために,実測値と実測値に基づいてメトリクスを設計する。
論文 参考訳(メタデータ) (2022-02-17T18:30:45Z) - A Peek Into the Reasoning of Neural Networks: Interpreting with
Structural Visual Concepts [38.215184251799194]
直感的な構造的視覚概念で分類NNを解釈するフレームワーク(VRX)を提案する。
ナレッジ蒸留によって、VRXはNNの推論プロセスを模倣する一歩を踏み出すことができることを示す。
論文 参考訳(メタデータ) (2021-05-01T15:47:42Z) - Correcting Classification: A Bayesian Framework Using Explanation
Feedback to Improve Classification Abilities [2.0931163605360115]
説明は社会的であり、それは相互作用による知識の伝達である。
説明フィードバックを用いたベイズ畳み込みニューラルネットワーク(CNN)の訓練により、これらの困難を克服します。
提案手法は,このフィードバックを微調整に利用して,説明や分類が改善するモデルを修正する。
論文 参考訳(メタデータ) (2021-04-29T13:59:21Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Simplifying the explanation of deep neural networks with sufficient and
necessary feature-sets: case of text classification [0.0]
ディープニューラルネットワーク(DNN)は、医学、ファイナンス、法律など、さまざまな領域で幅広い問題を解決する素晴らしいパフォーマンスを実証している。
彼らの優れたパフォーマンスにもかかわらず、彼らは長い間ブラックボックスシステムと見なされ、それらを説明することができない良い結果をもたらしてきた。
本稿では,1次元(1次元)畳み込みニューラルネットワーク(CNN)の予測説明を,十分かつ必要な特徴セットを同定して単純化する手法を提案する。
論文 参考訳(メタデータ) (2020-10-08T02:01:21Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Obtaining Faithful Interpretations from Compositional Neural Networks [72.41100663462191]
NLVR2およびDROPデータセット上でNMNの中間出力を評価する。
中間出力は期待出力と異なり,ネットワーク構造がモデル動作の忠実な説明を提供していないことを示す。
論文 参考訳(メタデータ) (2020-05-02T06:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。