論文の概要: Contrastive Explanations in Neural Networks
- arxiv url: http://arxiv.org/abs/2008.00178v1
- Date: Sat, 1 Aug 2020 05:50:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 00:20:43.022203
- Title: Contrastive Explanations in Neural Networks
- Title(参考訳): ニューラルネットワークにおける対比的説明
- Authors: Mohit Prabhushankar, Gukyeong Kwon, Dogancan Temel, and Ghassan
AlRegib
- Abstract要約: 現在の視覚的説明のモードは、$Why text P?'$という形式の質問に答える。
我々は、これらの$Why$の質問を、あるコンテキストに基づく$Q$で制限することを提案し、私たちの説明は、テキストQ?'というよりも、テキストP、テキストの形の対照的な質問に答えるようにします。
- 参考スコア(独自算出の注目度): 17.567849430630872
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual explanations are logical arguments based on visual features that
justify the predictions made by neural networks. Current modes of visual
explanations answer questions of the form $`Why \text{ } P?'$. These $Why$
questions operate under broad contexts thereby providing answers that are
irrelevant in some cases. We propose to constrain these $Why$ questions based
on some context $Q$ so that our explanations answer contrastive questions of
the form $`Why \text{ } P, \text{} rather \text{ } than \text{ } Q?'$. In this
paper, we formalize the structure of contrastive visual explanations for neural
networks. We define contrast based on neural networks and propose a methodology
to extract defined contrasts. We then use the extracted contrasts as a plug-in
on top of existing $`Why \text{ } P?'$ techniques, specifically Grad-CAM. We
demonstrate their value in analyzing both networks and data in applications of
large-scale recognition, fine-grained recognition, subsurface seismic analysis,
and image quality assessment.
- Abstract(参考訳): 視覚的説明は、ニューラルネットワークによる予測を正当化する視覚的特徴に基づく論理的議論である。
現在の視覚的説明のモードは、$`Why \text{ } P?'$という形式の質問に答える。
これらの$Why$の質問は広義の文脈で動作し、場合によっては無関係な回答を提供する。
我々は、これらの$Why$の質問を、あるコンテキストの$Q$に基づいて制限することを提案し、この説明は、$`Why \text{ } P, \text{} rather \text{ } than \text{ } Q?'$という形式の対照的な質問に答えるようにします。
本稿では,ニューラルネットワークのためのコントラスト視覚説明の構造を定式化する。
ニューラルネットワークに基づくコントラストを定義し,定義コントラストを抽出する手法を提案する。
次に、抽出したコントラストを既存の $`Why \text{ } P?'$ テクニック、特に Grad-CAM 上のプラグインとして使用します。
大規模認識,微粒化認識,地下地震解析,画像品質評価などの応用において,ネットワークとデータの両方を解析することの価値を実証する。
関連論文リスト
- Explaining the Implicit Neural Canvas: Connecting Pixels to Neurons by Tracing their Contributions [36.41141627989279]
Implicit Neural Representation (INR) は、信号の連続表現として訓練されたニューラルネットワークである。
我々の研究は、各ニューロンの出力画素への寄与の強さを調べることによって、INRの特性を説明する統一的な枠組みである。
論文 参考訳(メタデータ) (2024-01-18T18:57:40Z) - Why do CNNs excel at feature extraction? A mathematical explanation [53.807657273043446]
実世界のデータセットに似た画像を生成するのに使用できる特徴抽出に基づく画像分類の新しいモデルを提案する。
本研究では,特徴の存在を検知する一方向線形関数を構築し,畳み込みネットワークで実現可能であることを示す。
論文 参考訳(メタデータ) (2023-07-03T10:41:34Z) - Meet You Halfway: Explaining Deep Learning Mysteries [0.0]
本稿では,ネットワークの振舞いに光を当てることを目的とした,形式的な記述を伴う新しい概念的枠組みを提案する。
なぜニューラルネットワークは一般化能力を獲得するのか?
我々は、この新しいフレームワークと基礎となる理論をサポートする包括的な実験セットを提供する。
論文 参考訳(メタデータ) (2022-06-09T12:43:10Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Explanatory Paradigms in Neural Networks [18.32369721322249]
本稿では、推論に基づく質問に対する解答として説明を考慮し、ニューラルネットワークにおける説明可能性の研究に飛躍的に拡張する。
これらの質問に対する回答は, それぞれ, 相関, 反事実, 対照的な説明である。
この用語は、訓練されたニューラルネットワークが決定を下した後に、説明的手法が$P$を説明したとき、ホック後の説明可能性の特定のケースを指す。
論文 参考訳(メタデータ) (2022-02-24T00:22:11Z) - Expressive Explanations of DNNs by Combining Concept Analysis with ILP [0.3867363075280543]
我々は,dnn(feed-forward convolutional deep neural network)の理論的根拠をグローバル,表現的,言語的に説明するために,ネットワークが学習した本質的特徴を用いた。
我々の説明は元々のブラックボックスモデルに忠実であることを示している。
論文 参考訳(メタデータ) (2021-05-16T07:00:27Z) - LRTA: A Transparent Neural-Symbolic Reasoning Framework with Modular
Supervision for Visual Question Answering [4.602329567377897]
本稿では,視覚的質問応答のための透明なニューラルシンボリック推論フレームワークを提案する。
人間のようにステップバイステップで解決し、各ステップで人間の読みやすい正当性を提供する。
GQAデータセットを用いた実験により、LRTAは最先端モデルよりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-11-21T06:39:42Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z) - Neuro-Symbolic Visual Reasoning: Disentangling "Visual" from "Reasoning" [49.76230210108583]
本稿では,視覚的質問応答(VQA)の推論的側面をその知覚から分離し,評価する枠組みを提案する。
また,不完全な知覚においても,モデルが推論問題に答えられるような,新しいトップダウンキャリブレーション手法を提案する。
難易度の高いGQAデータセットでは、このフレームワークがよく知られたVQAモデル間の深い非絡み合いの比較に使用される。
論文 参考訳(メタデータ) (2020-06-20T08:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。