論文の概要: Pairwise Matching of Intermediate Representations for Fine-grained Explainability
- arxiv url: http://arxiv.org/abs/2503.22881v1
- Date: Fri, 28 Mar 2025 21:13:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:38:37.761695
- Title: Pairwise Matching of Intermediate Representations for Fine-grained Explainability
- Title(参考訳): きめ細かい説明性のための中間表現のペアワイズマッチング
- Authors: Lauren Shrack, Timm Haucke, Antoine Salaün, Arjun Subramonian, Sara Beery,
- Abstract要約: そこで本研究では,細粒度で高度に局所化された視覚的説明を生成するための新しい説明可能性法(PAIR-X)を提案する。
解釈性を改善することで、PAIR-Xは人間が正しいマッチと間違ったマッチを区別するのに役立つ。
- 参考スコア(独自算出の注目度): 7.415710605852485
- License:
- Abstract: The differences between images belonging to fine-grained categories are often subtle and highly localized, and existing explainability techniques for deep learning models are often too diffuse to provide useful and interpretable explanations. We propose a new explainability method (PAIR-X) that leverages both intermediate model activations and backpropagated relevance scores to generate fine-grained, highly-localized pairwise visual explanations. We use animal and building re-identification (re-ID) as a primary case study of our method, and we demonstrate qualitatively improved results over a diverse set of explainability baselines on 35 public re-ID datasets. In interviews, animal re-ID experts were in unanimous agreement that PAIR-X was an improvement over existing baselines for deep model explainability, and suggested that its visualizations would be directly applicable to their work. We also propose a novel quantitative evaluation metric for our method, and demonstrate that PAIR-X visualizations appear more plausible for correct image matches than incorrect ones even when the model similarity score for the pairs is the same. By improving interpretability, PAIR-X enables humans to better distinguish correct and incorrect matches. Our code is available at: https://github.com/pairx-explains/pairx
- Abstract(参考訳): 微細なカテゴリに属する画像の違いはしばしば微妙で高度に局所化されており、ディープラーニングモデルの既存の説明可能性技術は、有用で解釈可能な説明を提供するには、しばしば拡散しすぎる。
そこで本研究では,中間モデルアクティベーションとバックプロパゲーション関連スコアを併用した新しい説明可能性法(PAIR-X)を提案する。
動物と建築の再同定(re-ID)を本手法の第一事例として用い,35の公開re-IDデータセットを用いた多種多様な説明可能性ベースラインに対する質的に改善された結果を示す。
インタヴューにおいて、動物再IDの専門家は、PAIR-Xは深層モデル説明可能性に対する既存のベースラインの改善であり、その可視化は彼らの仕事に直接適用できると提案した。
また,本手法の定量的評価基準を提案するとともに,ペアのモデル類似度スコアが同一である場合でも,PAIR-Xの可視化が正しい画像マッチングに適していることを示す。
解釈性を改善することで、PAIR-Xは人間が正しいマッチと間違ったマッチを区別するのに役立つ。
私たちのコードは、https://github.com/pairx-explains/pairxで利用可能です。
関連論文リスト
- The "Law" of the Unconscious Contrastive Learner: Probabilistic Alignment of Unpaired Modalities [23.188014611990152]
本稿では, 対比表現の幾何学的解釈と確率論的解釈について述べる。
これらの表現が確率的グラフィカルモデルと同じ推論の多くにどのように答えるかを示す。
分析では、事前学習されたコントラストモデルを用いた設定でのコントラスト表現と、強化学習における言語あいまいさの2つの新しい方法を提案する。
論文 参考訳(メタデータ) (2025-01-20T08:10:15Z) - Beyond Coarse-Grained Matching in Video-Text Retrieval [50.799697216533914]
きめ細かい評価のための新しいアプローチを導入する。
テストキャプションを自動的に生成することで,既存のデータセットにアプローチを適用することができる。
きめ細かい評価実験は、このアプローチがきめ細かな違いを理解するモデルの能力を高めることを実証している。
論文 参考訳(メタデータ) (2024-10-16T09:42:29Z) - Contrastive Learning with Counterfactual Explanations for Radiology Report Generation [83.30609465252441]
放射線学レポート生成のためのtextbfCountertextbfFactual textbfExplanations-based framework (CoFE) を提案する。
反現実的な説明は、アルゴリズムによってなされた決定をどのように変えられるかを理解するための強力なツールとして、シナリオが何であるかを問うことによって役立ちます。
2つのベンチマークの実験では、反ファクト的な説明を活用することで、CoFEは意味的に一貫性があり、事実的に完全なレポートを生成することができる。
論文 参考訳(メタデータ) (2024-07-19T17:24:25Z) - Exploring Diverse Representations for Open Set Recognition [51.39557024591446]
オープンセット認識(OSR)では、テスト中に未知のサンプルを拒絶しながら、クローズドセットに属するサンプルを分類する必要がある。
現在、生成モデルはOSRの差別モデルよりもよく機能している。
本稿では,多種多様な表現を識別的に学習するMulti-Expert Diverse Attention Fusion(MEDAF)を提案する。
論文 参考訳(メタデータ) (2024-01-12T11:40:22Z) - Improving Explainability of Disentangled Representations using
Multipath-Attribution Mappings [12.145748796751619]
下流タスク予測に解釈不能な不整合表現を利用するフレームワークを提案する。
提案手法の有効性を,総合ベンチマークスイートと2つの医療データセットで実証する。
論文 参考訳(メタデータ) (2023-06-15T10:52:29Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Learning disentangled representations for explainable chest X-ray
classification using Dirichlet VAEs [68.73427163074015]
本研究では,胸部X線像の非絡み合った潜在表現の学習にDirVAE(Dirichlet Variational Autoencoder)を用いることを検討した。
DirVAEモデルにより学習された多モード潜在表現の予測能力について,補助的多ラベル分類タスクの実装により検討した。
論文 参考訳(メタデータ) (2023-02-06T18:10:08Z) - Aggregating Pairwise Semantic Differences for Few-Shot Claim Veracity
Classification [21.842139093124512]
本稿では,新しいベクトルベース手法であるSEEDを導入する。
クラス内のクレーム-エビデンス対の平均意味的差異を捉えるクラス代表ベクトルをシミュレートできるという仮説に基づいて構築する。
FEVERとSCIFACTデータセットで実施された実験では、数ショット設定で競合するベースラインよりも一貫した改善が見られた。
論文 参考訳(メタデータ) (2022-05-11T17:23:37Z) - ADVISE: ADaptive Feature Relevance and VISual Explanations for
Convolutional Neural Networks [0.745554610293091]
本稿では,機能マップの各ユニットの関連性を定量化し,活用して視覚的説明を提供する新しい説明可能性手法であるADVISEを紹介する。
我々は、画像分類タスクにおいて、AlexNet、VGG16、ResNet50、XceptionをImageNetで事前訓練した上で、我々のアイデアを広く評価する。
さらに,ADVISEは衛生チェックをパスしながら,感度および実装独立性公理を満たすことを示す。
論文 参考訳(メタデータ) (2022-03-02T18:16:57Z) - A Multi-Level Attention Model for Evidence-Based Fact Checking [58.95413968110558]
シーケンス構造をトレーニング可能な,シンプルなモデルを提案する。
Fact extract and VERification のための大規模データセットの結果、我々のモデルはグラフベースのアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-02T05:40:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。