論文の概要: Gradient Hedging for Intensively Exploring Salient Interpretation beyond
Neuron Activation
- arxiv url: http://arxiv.org/abs/2205.11109v1
- Date: Mon, 23 May 2022 07:57:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 15:12:21.017528
- Title: Gradient Hedging for Intensively Exploring Salient Interpretation beyond
Neuron Activation
- Title(参考訳): 中枢神経活動を超えた局所的解釈のためのグラディエントヘッジ
- Authors: Woo-Jeoung Nam, Seong-Whan Lee
- Abstract要約: 本稿では, ある決定の証拠を隠蔽することにより, 出力予測を集中的な帰属属性に分解する手法を提案する。
本稿では,決定の証拠に適用される従来のアプローチを分析し,保全規則のパラドックスについて議論する。
提案手法は,汎用モデルにおける頑健さと適用性を備えた特徴的,集中的,直感的な可視化において,既存属性法よりも優れる。
- 参考スコア(独自算出の注目度): 25.86943155064205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hedging is a strategy for reducing the potential risks in various types of
investments by adopting an opposite position in a related asset. Motivated by
the equity technique, we introduce a method for decomposing output predictions
into intensive salient attributions by hedging the evidence for a decision. We
analyze the conventional approach applied to the evidence for a decision and
discuss the paradox of the conservation rule. Subsequently, we define the
viewpoint of evidence as a gap of positive and negative influence among the
gradient-derived initial contribution maps and propagate the antagonistic
elements to the evidence as suppressors, following the criterion of the degree
of positive attribution defined by user preference. In addition, we reflect the
severance or sparseness contribution of inactivated neurons, which are mostly
irrelevant to a decision, resulting in increased robustness to
interpretability. We conduct the following assessments in a verified
experimental environment: pointing game, most relevant first region insertion,
outside-inside relevance ratio, and mean average precision on the PASCAL VOC
2007, MS COCO 2014, and ImageNet datasets. The results demonstrate that our
method outperforms existing attribution methods in distinctive, intensive, and
intuitive visualization with robustness and applicability in general models.
- Abstract(参考訳): ヘッジ(英: hedging)とは、様々な種類の投資における潜在的なリスクを減らすための戦略である。
エクイティ手法に動機付け, 決定の証拠を隠蔽することにより, 出力予測を集中的な帰属属性に分解する手法を提案する。
決定の証拠に適用される従来のアプローチを分析し,保存則のパラドックスについて議論する。
その後,グラデーションから派生した初期貢献マップにおける肯定的および否定的影響のギャップとしてエビデンスの観点から定義し,ユーザ嗜好によって定義された肯定的帰属度の基準に従って,証拠に対する敵対的要素を抑制者として伝達する。
また,不活化ニューロンの重症度や疎度は決定に大きく関係しないため,解釈可能性に対する堅牢性が向上する。
本研究は, PASCAL VOC 2007, MS COCO 2014, ImageNetデータセットを用いて, ポインティングゲーム, 最も関連性の高い第1領域挿入, 外部関連率, 平均精度の評価を行った。
以上の結果から,本手法は,汎用モデルにおける頑健さと適用性により,特徴的,集中的,直感的な可視化において,既存属性法よりも優れることが示された。
関連論文リスト
- Neural Networks Decoded: Targeted and Robust Analysis of Neural Network Decisions via Causal Explanations and Reasoning [9.947555560412397]
本稿では、因果推論理論に基づく新しい手法TRACERを紹介し、DNN決定の根底にある因果ダイナミクスを推定する。
提案手法は入力特徴に系統的に介入し,特定の変化がネットワークを介してどのように伝播するかを観察し,内部の活性化と最終的な出力に影響を与える。
TRACERはさらに、モデルバイアスの可能性のある反ファクトを生成することで説明可能性を高め、誤分類に対する対照的な説明を提供する。
論文 参考訳(メタデータ) (2024-10-07T20:44:53Z) - Toward Understanding the Disagreement Problem in Neural Network Feature Attribution [0.8057006406834466]
ニューラルネットワークは 複雑なパターンと関係を 生のデータから識別する
これらのブラックボックスモデルの内部動作を理解することは、依然として難しいが、高い意思決定には不可欠である。
我々の研究は、説明の基本的な、分布的な振る舞いを調査することによって、この混乱に対処する。
論文 参考訳(メタデータ) (2024-04-17T12:45:59Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Benchmarking Bayesian Causal Discovery Methods for Downstream Treatment
Effect Estimation [137.3520153445413]
下流推論に重点を置く因果発見手法の評価において,顕著なギャップが存在する。
我々は,GFlowNetsに基づく新たな手法を含む,確立された7つの基本因果探索手法を評価する。
研究の結果,研究対象のアルゴリズムのいくつかは,多種多様なATEモードを効果的に捉えることができることがわかった。
論文 参考訳(メタデータ) (2023-07-11T02:58:10Z) - Causal Analysis for Robust Interpretability of Neural Networks [0.2519906683279152]
我々は、事前学習されたニューラルネットワークの因果効果を捉えるための頑健な介入に基づく手法を開発した。
分類タスクで訓練された視覚モデルに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-15T18:37:24Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Interpreting Deep Neural Networks with Relative Sectional Propagation by
Analyzing Comparative Gradients and Hostile Activations [37.11665902583138]
DNN(Deep Neural Networks)の出力予測を分解するための新しいアトリビューション手法であるRelative Sectional Propagation(RSP)を提案する。
我々は、敵対的因子をターゲットの属性を見つけるのを妨げる要素として定義し、活性化ニューロンの非抑制的な性質を克服するために区別可能な方法でそれを伝播させる。
本手法により,従来の帰属法と比較して,DNNのクラス識別性や活性化ニューロンの詳細な解明により,DNNの予測を分解することができる。
論文 参考訳(メタデータ) (2020-12-07T03:11:07Z) - Loss Bounds for Approximate Influence-Based Abstraction [81.13024471616417]
影響に基づく抽象化は、システムの残りの部分が与える「影響」とともに、局所的なサブプロブレムをモデル化することでレバレッジを得ることを目的としている。
本稿では,理論的観点から,そのような手法の性能について考察する。
交叉エントロピーで訓練されたニューラルネットワークは、近似的な影響表現を学習するのに適していることを示す。
論文 参考訳(メタデータ) (2020-11-03T15:33:10Z) - Counterfactual Representation Learning with Balancing Weights [74.67296491574318]
観察データによる因果推論の鍵は、それぞれの治療タイプに関連する予測的特徴のバランスを達成することである。
近年の文献では、この目標を達成するために表現学習を探求している。
因果効果を柔軟かつスケーラブルかつ正確に推定するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-10-23T19:06:03Z) - Understanding Negative Sampling in Graph Representation Learning [87.35038268508414]
最適化目標と結果のばらつきを決定するためには, 正のサンプリングと同様に負のサンプリングが重要であることを示す。
我々は,自己コントラスト近似による正の分布を近似し,メトロポリス・ハスティングスによる負のサンプリングを高速化するメトロポリス・ハスティングス(MCNS)を提案する。
提案手法は,リンク予測,ノード分類,パーソナライズドレコメンデーションを含む,下流グラフ学習タスクをカバーする5つのデータセットに対して評価する。
論文 参考訳(メタデータ) (2020-05-20T06:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。