論文の概要: Measuring and improving the quality of visual explanations
- arxiv url: http://arxiv.org/abs/2003.08774v2
- Date: Fri, 20 Mar 2020 10:00:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 19:53:24.143691
- Title: Measuring and improving the quality of visual explanations
- Title(参考訳): 視覚的な説明の質の測定と改善
- Authors: Agnieszka Grabska-Barwi\'nska
- Abstract要約: 本稿では,ニューラルネットワークにおける様々な情報源から抽出される視覚的説明について検討する。
我々はこれらの情報源を組み合わせる利点を定量化し、バイアスパラメータを考慮に入れた最近の魅力に挑戦する。
- 参考スコア(独自算出の注目度): 1.0062187787765149
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability of to explain neural network decisions goes hand in hand with
their safe deployment. Several methods have been proposed to highlight features
important for a given network decision. However, there is no consensus on how
to measure effectiveness of these methods. We propose a new procedure for
evaluating explanations. We use it to investigate visual explanations extracted
from a range of possible sources in a neural network. We quantify the benefit
of combining these sources and challenge a recent appeal for taking bias
parameters into account. We support our conclusions with a general assessment
of the impact of bias parameters in ImageNet classifiers
- Abstract(参考訳): ニューラルネットワークの決定を説明する能力は、安全なデプロイメントと密接に関連している。
与えられたネットワーク決定に重要な特徴を強調するために、いくつかの方法が提案されている。
しかし、これらの方法の有効性を測定する方法についての合意は得られていない。
説明を評価するための新しい手順を提案する。
ニューラルネットワークの可能な範囲から抽出した視覚的な説明を調べるために使用する。
我々はこれらの情報源を組み合わせる利点を定量化し、バイアスパラメータを考慮に入れた最近の魅力に挑戦する。
ImageNet分類器におけるバイアスパラメータの影響の一般評価で結論を支持する。
関連論文リスト
- Toward Understanding the Disagreement Problem in Neural Network Feature Attribution [0.8057006406834466]
ニューラルネットワークは 複雑なパターンと関係を 生のデータから識別する
これらのブラックボックスモデルの内部動作を理解することは、依然として難しいが、高い意思決定には不可欠である。
我々の研究は、説明の基本的な、分布的な振る舞いを調査することによって、この混乱に対処する。
論文 参考訳(メタデータ) (2024-04-17T12:45:59Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Explaining Deep Convolutional Neural Networks for Image Classification
by Evolving Local Interpretable Model-agnostic Explanations [7.474973880539888]
提案手法はモデルに依存しない、すなわち、深い畳み込みニューラルネットワークモデルを説明するために利用することができる。
ImageNetからランダムに選択された4つの画像の進化した局所的説明を示す。
提案手法は,LIMEの10倍以上高速な局所的な説明を1分以内で得ることができる。
論文 参考訳(メタデータ) (2022-11-28T08:56:00Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - Simplifying the explanation of deep neural networks with sufficient and
necessary feature-sets: case of text classification [0.0]
ディープニューラルネットワーク(DNN)は、医学、ファイナンス、法律など、さまざまな領域で幅広い問題を解決する素晴らしいパフォーマンスを実証している。
彼らの優れたパフォーマンスにもかかわらず、彼らは長い間ブラックボックスシステムと見なされ、それらを説明することができない良い結果をもたらしてきた。
本稿では,1次元(1次元)畳み込みニューラルネットワーク(CNN)の予測説明を,十分かつ必要な特徴セットを同定して単純化する手法を提案する。
論文 参考訳(メタデータ) (2020-10-08T02:01:21Z) - How Good is your Explanation? Algorithmic Stability Measures to Assess
the Quality of Explanations for Deep Neural Networks [0.0]
本稿では,アルゴリズム安定性の分野から借用した説明を評価するための2つの新しい手法を提案する。
当社と比較すると、信頼に値する説明を保証するのに、一般的な忠実度対策は不十分である。
これは1-Lipschitzネットワークがより説明可能で信頼性の高い予測器への関連する方向であることを示唆している。
論文 参考訳(メタデータ) (2020-09-07T08:02:29Z) - Assessing the Reliability of Visual Explanations of Deep Models with
Adversarial Perturbations [15.067369314723958]
本稿では,深層モデルの説明の信頼性を評価するための客観的尺度を提案する。
提案手法は,入力画像の逆方向の摂動によるネットワーク結果の変化に基づく。
我々はまた,本質的な説明を損なうことなく,より解釈可能な地図を創出し,関連性マップのクリーン化へのアプローチの直接的な適用を提案する。
論文 参考訳(メタデータ) (2020-04-22T19:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。