論文の概要: Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models
- arxiv url: http://arxiv.org/abs/2012.03369v2
- Date: Thu, 29 Apr 2021 21:28:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 03:07:31.318839
- Title: Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models
- Title(参考訳): proactive pseudo-intervention: 解釈可能な視覚モデルのための因果的コントラスト学習
- Authors: Dong Wang, Yuewei Yang, Chenyang Tao, Zhe Gan, Liqun Chen, Fanjie
Kong, Ricardo Henao, Lawrence Carin
- Abstract要約: PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
- 参考スコア(独自算出の注目度): 103.64435911083432
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks excel at comprehending complex visual signals,
delivering on par or even superior performance to that of human experts.
However, ad-hoc visual explanations of model decisions often reveal an alarming
level of reliance on exploiting non-causal visual cues that strongly correlate
with the target label in training data. As such, deep neural nets suffer
compromised generalization to novel inputs collected from different sources,
and the reverse engineering of their decision rules offers limited
interpretability. To overcome these limitations, we present a novel contrastive
learning strategy called {\it Proactive Pseudo-Intervention} (PPI) that
leverages proactive interventions to guard against image features with no
causal relevance. We also devise a novel causally informed salience mapping
module to identify key image pixels to intervene, and show it greatly
facilitates model interpretability. To demonstrate the utility of our
proposals, we benchmark on both standard natural images and challenging medical
image datasets. PPI-enhanced models consistently deliver superior performance
relative to competing solutions, especially on out-of-domain predictions and
data integration from heterogeneous sources. Further, our causally trained
saliency maps are more succinct and meaningful relative to their non-causal
counterparts.
- Abstract(参考訳): ディープニューラルネットワークは、複雑な視覚信号の理解に優れ、人間の専門家と同等あるいはそれ以上のパフォーマンスを提供する。
しかし、モデル決定のアドホックな視覚的な説明は、訓練データのターゲットラベルと強く相関する非causalな視覚手がかりの活用に依存していることをしばしば示している。
このように、ディープニューラルネットは、異なるソースから収集された新しい入力への妥協された一般化に苦しめられ、決定ルールのリバースエンジニアリングは、限定的な解釈可能性を提供する。
これらの制約を克服するため, 因果関係のない画像特徴の保護に積極的に介入することを活用する, {\it Proactive Pseudo-Intervention} (PPI) と呼ばれる新しいコントラスト学習戦略を提案する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
提案手法の有用性を実証するため,標準の自然画像と課題の画像データセットをベンチマークした。
PPI強化モデルは、特に異種ソースからのドメイン外予測とデータ統合において、競合するソリューションと比較して一貫して優れたパフォーマンスを提供する。
さらに、我々の因果訓練されたサリエンシマップは、その非因果関係に対して簡潔で有意義である。
関連論文リスト
- Diffusion Model with Cross Attention as an Inductive Bias for Disentanglement [58.9768112704998]
遠方表現学習は、観測データ内の本質的要因を抽出する試みである。
我々は新しい視点と枠組みを導入し、クロスアテンションを持つ拡散モデルが強力な帰納バイアスとなることを示す。
これは、複雑な設計を必要とせず、クロスアテンションを持つ拡散モデルの強力な解離能力を明らかにする最初の研究である。
論文 参考訳(メタデータ) (2024-02-15T05:07:54Z) - Detecting Spurious Correlations via Robust Visual Concepts in Real and
AI-Generated Image Classification [12.992095539058022]
本稿では,潜在的スパイラル相関を効率的に検出する汎用手法を提案する。
提案手法は,ピクセルレベルのアノテーションを不要にしつつ,直感的な説明を提供する。
また,本手法は,生成モデル由来の下流アプリケーションに伝播する急激な相関を検出するのにも適している。
論文 参考訳(メタデータ) (2023-11-03T01:12:35Z) - Free-ATM: Exploring Unsupervised Learning on Diffusion-Generated Images
with Free Attention Masks [64.67735676127208]
テキストと画像の拡散モデルは、画像認識の恩恵を受ける大きな可能性を示している。
有望ではあるが、拡散生成画像の教師なし学習に特化した調査は不十分である。
上記フリーアテンションマスクをフル活用することで、カスタマイズされたソリューションを導入する。
論文 参考訳(メタデータ) (2023-08-13T10:07:46Z) - Interpretable Computer Vision Models through Adversarial Training:
Unveiling the Robustness-Interpretability Connection [0.0]
解釈可能性は、モデルを現実世界にデプロイする際には、堅牢性と同じくらい不可欠です。
標準モデルは、ロバストと比較して敵の攻撃に対してより感受性が高く、その学習された表現は人間にはあまり意味がない。
論文 参考訳(メタデータ) (2023-07-04T13:51:55Z) - Improving Explainability of Disentangled Representations using
Multipath-Attribution Mappings [12.145748796751619]
下流タスク予測に解釈不能な不整合表現を利用するフレームワークを提案する。
提案手法の有効性を,総合ベンチマークスイートと2つの医療データセットで実証する。
論文 参考訳(メタデータ) (2023-06-15T10:52:29Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Contextual Fusion For Adversarial Robustness [0.0]
ディープニューラルネットワークは、通常、1つの特定の情報ストリームを処理し、様々な種類の敵の摂動に影響を受けやすいように設計されている。
そこで我々はPlaces-CNNとImagenet-CNNから並列に抽出した背景特徴と前景特徴を組み合わせた融合モデルを開発した。
グラデーションをベースとした攻撃では,フュージョンは乱れのないデータの性能を低下させることなく,分類の大幅な改善を可能にする。
論文 参考訳(メタデータ) (2020-11-18T20:13:23Z) - Understanding Adversarial Examples from the Mutual Influence of Images
and Perturbations [83.60161052867534]
クリーンな画像と敵の摂動を遠ざけることで敵の例を分析し,その相互への影響を分析した。
以上の結果から,画像と普遍摂動の関係に対する新たな視点が示唆された。
我々は、オリジナルトレーニングデータを活用することなく、目標とするユニバーサルアタックの挑戦的なタスクを最初に達成した人物です。
論文 参考訳(メタデータ) (2020-07-13T05:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。