論文の概要: Comprehensive Attribution: Inherently Explainable Vision Model with Feature Detector
- arxiv url: http://arxiv.org/abs/2407.19308v2
- Date: Tue, 6 Aug 2024 17:22:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 18:22:38.817655
- Title: Comprehensive Attribution: Inherently Explainable Vision Model with Feature Detector
- Title(参考訳): 包括的帰属:特徴検出器を用いた忠実に説明可能な視覚モデル
- Authors: Xianren Zhang, Dongwon Lee, Suhang Wang,
- Abstract要約: Inherently explainable attribution methodはモデル行動の理解を高めることを目的としている。
これは、セレクタ(重要な特徴を特定するために属性マップを生成する)と予測器を協調的に訓練することで達成される。
マスクアウト領域における差別的特徴の存在を阻止する新たな目標を提案する。
我々のモデルは通常のブラックボックスモデルよりも高精度で正確な予測を行う。
- 参考スコア(独自算出の注目度): 30.23453108681447
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As deep vision models' popularity rapidly increases, there is a growing emphasis on explanations for model predictions. The inherently explainable attribution method aims to enhance the understanding of model behavior by identifying the important regions in images that significantly contribute to predictions. It is achieved by cooperatively training a selector (generating an attribution map to identify important features) and a predictor (making predictions using the identified features). Despite many advancements, existing methods suffer from the incompleteness problem, where discriminative features are masked out, and the interlocking problem, where the non-optimized selector initially selects noise, causing the predictor to fit on this noise and perpetuate the cycle. To address these problems, we introduce a new objective that discourages the presence of discriminative features in the masked-out regions thus enhancing the comprehensiveness of feature selection. A pre-trained detector is introduced to detect discriminative features in the masked-out region. If the selector selects noise instead of discriminative features, the detector can observe and break the interlocking situation by penalizing the selector. Extensive experiments show that our model makes accurate predictions with higher accuracy than the regular black-box model, and produces attribution maps with high feature coverage, localization ability, fidelity and robustness. Our code will be available at \href{https://github.com/Zood123/COMET}{https://github.com/Zood123/COMET}.
- Abstract(参考訳): 深層視覚モデルの人気が急速に高まるにつれて、モデル予測の説明に重点が置かれている。
本手法は, 予測に大きく寄与する画像の重要領域を特定することにより, モデル行動の理解を深めることを目的としている。
これは、セレクタ(重要な特徴を特定するために属性マップを生成する)と予測器(識別された特徴を用いた予測を行う)を協調的に訓練することで達成される。
多くの進歩にもかかわらず、既存の手法では識別的特徴が隠蔽される不完全性問題や、非最適化セレクタが最初にノイズを選択したインターロック問題に悩まされ、予測者がこのノイズに適合しサイクルを持続する。
これらの課題に対処するため,マスクアウト領域における識別的特徴の存在を回避し,特徴選択の包括性を向上する新たな目的を導入する。
マスクアウト領域の識別特徴を検出するために、事前訓練された検出器を導入する。
セレクタが識別的特徴ではなくノイズを選択すると、検出器はセレクタをペナルティ化して連動状況を観察し破ることができる。
大規模な実験により,本モデルは通常のブラックボックスモデルよりも精度の高い精度で正確な予測を行い,高い特徴カバレッジ,局所化能力,忠実度,堅牢性を備えた属性マップを生成することがわかった。
私たちのコードは、 \href{https://github.com/Zood123/COMET}{https://github.com/Zood123/COMET}で利用可能です。
関連論文リスト
- Generative Edge Detection with Stable Diffusion [52.870631376660924]
エッジ検出は一般的に、主に識別法によって対処されるピクセルレベルの分類問題と見なされる。
本稿では、事前学習した安定拡散モデルのポテンシャルを十分に活用して、GED(Generative Edge Detector)という新しい手法を提案する。
複数のデータセットに対して広範な実験を行い、競争性能を達成する。
論文 参考訳(メタデータ) (2024-10-04T01:52:23Z) - Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - Rationalizing Predictions by Adversarial Information Calibration [65.19407304154177]
我々は2つのモデルを共同で訓練する: 1つは、正確だがブラックボックスな方法でタスクを解く典型的なニューラルモデルであり、もう1つは、予測の理論的根拠を付加するセレクタ・予測モデルである。
我々は,2つのモデルから抽出した情報を,それらの違いが欠落した特徴や過度に選択された特徴の指標であるように校正するために,敵対的手法を用いる。
論文 参考訳(メタデータ) (2023-01-15T03:13:09Z) - Shortcomings of Top-Down Randomization-Based Sanity Checks for
Evaluations of Deep Neural Network Explanations [67.40641255908443]
モデルランダム化に基づく正当性チェックの限界を,説明書の評価のために同定する。
トップダウンモデルランダム化は、フォワードパスアクティベーションのスケールを高い確率で保存する。
論文 参考訳(メタデータ) (2022-11-22T18:52:38Z) - Understanding Interlocking Dynamics of Cooperative Rationalization [90.6863969334526]
選択的合理化(Selective rationalization)は、ニューラルネットワークの出力を予測するのに十分な入力の小さなサブセットを見つけることによって、複雑なニューラルネットワークの予測を説明する。
このような合理化パラダイムでは,モデルインターロックという大きな問題が浮かび上がっている。
A2Rと呼ばれる新しい合理化フレームワークを提案し、アーキテクチャに第3のコンポーネントを導入し、選択とは対照的にソフトアテンションによって駆動される予測器を提案する。
論文 参考訳(メタデータ) (2021-10-26T17:39:18Z) - Less is More: Feature Selection for Adversarial Robustness with
Compressive Counter-Adversarial Attacks [7.5320132424481505]
本稿では,敵攻撃を用いて重要な特徴を識別する新しい手法を提案する。
クリーンな精度とロバストな精度のギャップを橋渡しする特徴のサブセットが存在することを示す。
次に, 固有層におけるアクティベーション値の整合性を観察し, 特徴を抽出する。
論文 参考訳(メタデータ) (2021-06-18T17:39:05Z) - Bayesian Attention Belief Networks [59.183311769616466]
注意に基づくニューラルネットワークは、幅広いタスクにおいて最先端の結果を得た。
本稿では,非正規化注意重みをモデル化してデコーダネットワークを構築するベイズ的注意信念ネットワークについて紹介する。
提案手法は, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃において, 決定論的注意と最先端の注意よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-09T17:46:22Z) - Learning from the Best: Rationalizing Prediction by Adversarial
Information Calibration [39.685626118667074]
2つのモデルを共同でトレーニングする。1つは手前のタスクを正確だがブラックボックスな方法で解く典型的なニューラルモデルであり、もう1つはセレクタ-予測モデルであり、予測の根拠も生み出す。
両モデルから抽出した情報の校正には,逆数に基づく手法を用いる。
自然言語タスクには, 言語モデルに基づく正規化子を用いて, 流線型論理の抽出を促進することを提案する。
論文 参考訳(メタデータ) (2020-12-16T11:54:15Z) - Dynamic Bayesian Approach for decision-making in Ego-Things [8.577234269009042]
本稿では,マルチセンサデータと特徴選択に基づく動的システムの異常検出手法を提案する。
成長型ニューラルガス(GNG)は、マルチセンサーデータを一連のノードにクラスタリングするために使用される。
本手法は状態推定と異常検出にマルコフジャンプ粒子フィルタ(MJPF)を用いる。
論文 参考訳(メタデータ) (2020-10-28T11:38:51Z) - Differentiable Unsupervised Feature Selection based on a Gated Laplacian [7.970954821067042]
本稿では,低周波特徴を優先するラプラシアンスコアと,特徴選択のためのゲーティング機構を組み合わせた識別可能な損失関数を提案する。
我々は,提案手法を数学的に動機付け,高雑音条件下では,全特徴集合ではなく,ゲート入力上でラプラシアンを計算することが重要であることを示す。
論文 参考訳(メタデータ) (2020-07-09T11:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。