論文の概要: Rethinking Saliency Maps: A Cognitive Human Aligned Taxonomy and Evaluation Framework for Explanations
- arxiv url: http://arxiv.org/abs/2511.13081v2
- Date: Tue, 18 Nov 2025 07:20:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 13:59:16.881519
- Title: Rethinking Saliency Maps: A Cognitive Human Aligned Taxonomy and Evaluation Framework for Explanations
- Title(参考訳): Rethinking Saliency Maps: A Cognitive Human Origned Taxonomy and Evaluation Framework for Explanations
- Authors: Yehonatan Elisha, Seffi Cohen, Oren Barkan, Noam Koenigstein,
- Abstract要約: 基準フレーム$times$ Granularity (RFxG) の分類について紹介する。
RFxGは2つの本質的な軸に沿ってサリエンシの説明を整理する: 参照フレーム: ポイントワイズ(なぜこの予測は?)とコントラスト的(なぜこの予測は代替ではないのか?
我々の総合的な評価フレームワークは、これらのメトリクスを10の最先端の正当性メソッド、4つのモデルアーキテクチャ、3つのデータセットに適用します。
- 参考スコア(独自算出の注目度): 16.045822460720363
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Saliency maps are widely used for visual explanations in deep learning, but a fundamental lack of consensus persists regarding their intended purpose and alignment with diverse user queries. This ambiguity hinders the effective evaluation and practical utility of explanation methods. We address this gap by introducing the Reference-Frame $\times$ Granularity (RFxG) taxonomy, a principled conceptual framework that organizes saliency explanations along two essential axes:Reference-Frame: Distinguishing between pointwise ("Why this prediction?") and contrastive ("Why this and not an alternative?") explanations. Granularity: Ranging from fine-grained class-level (e.g., "Why Husky?") to coarse-grained group-level (e.g., "Why Dog?") interpretations. Using the RFxG lens, we demonstrate critical limitations in existing evaluation metrics, which overwhelmingly prioritize pointwise faithfulness while neglecting contrastive reasoning and semantic granularity. To systematically assess explanation quality across both RFxG dimensions, we propose four novel faithfulness metrics. Our comprehensive evaluation framework applies these metrics to ten state-of-the-art saliency methods, four model architectures, and three datasets. By advocating a shift toward user-intent-driven evaluation, our work provides both the conceptual foundation and the practical tools necessary to develop visual explanations that are not only faithful to the underlying model behavior but are also meaningfully aligned with the complexity of human understanding and inquiry.
- Abstract(参考訳): サイレンシマップはディープラーニングの視覚的説明に広く利用されているが、意図した目的と多様なユーザクエリとの整合性に関して、基本的な合意の欠如が続いている。
この曖昧さは、説明法の効果的な評価と実用性を妨げている。
このギャップに対処するために、Reference-Frame $\times$ Granularity (RFxG) という2つの重要な軸に沿ってサリエンシの説明を整理する原則的な概念的フレームワークを導入する。
粒度: 粒度の細かいクラスレベル(例:「なぜハスキー?」)から粗いグループレベル(例:「なぜ犬?
RFxGレンズを用いて既存の評価指標の限界を示すが、これは対照的な推論や意味的粒度を無視しながら、極端にポイントワイド忠実度を優先するものである。
両RFxG次元における説明品質を体系的に評価するために,4つの新しい忠実度指標を提案する。
我々の総合的な評価フレームワークは、これらのメトリクスを10の最先端の正当性メソッド、4つのモデルアーキテクチャ、3つのデータセットに適用します。
ユーザインテリジェントによる評価へのシフトを提唱することにより、基礎となるモデル行動に忠実であるだけでなく、人間の理解と調査の複雑さと有意義に整合した視覚的説明を開発するために必要な概念的基盤と実践的ツールの両方を提供する。
関連論文リスト
- FaCT: Faithful Concept Traces for Explaining Neural Network Decisions [56.796533084868884]
ディープネットワークは、幅広いタスクで顕著なパフォーマンスを示しているが、それらの機能に関するグローバルな概念レベルの理解は、依然として重要な課題である。
本稿では,概念に基づく説明の忠実さを強調し,モデル独立な機械的概念説明を用いた新しいモデルを提案する。
私たちの概念はクラス間で共有され、あらゆるレイヤから、ロジットへの貢献と入力-視覚化を忠実にトレースすることができます。
論文 参考訳(メタデータ) (2025-10-29T13:35:46Z) - Explain Before You Answer: A Survey on Compositional Visual Reasoning [74.27548620675748]
構成的視覚推論は、マルチモーダルAIにおける重要な研究フロンティアとして登場した。
本調査は,トップ会場(CVPR,ICCV,NeurIPS,ICML,ACLなど)から260以上の論文を体系的にレビューする。
次に60以上のベンチマークとそれに対応するメトリクスを、基底精度、連鎖忠実性、高分解能知覚などの次元に沿って探索する。
論文 参考訳(メタデータ) (2025-08-24T11:01:51Z) - Explainable Evidential Clustering [0.0]
実世界のデータは、しばしば不完全であり、不確かさと不正確さが特徴であり、従来の手法ではうまく扱えない。
Dempster-Shafer理論に基づくエビデンシャルクラスタリングは、これらの課題に対処する。
本稿では,解釈可能かつ慎重な決定木説明を提供するIEMM (Iterative Evidential Mistake Minimization) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-07-16T12:44:25Z) - How do Transformers Learn Implicit Reasoning? [67.02072851088637]
制御されたシンボリック環境下でトランスフォーマーをスクラッチからトレーニングすることで、暗黙のマルチホップ推論がどのように現れるかを研究する。
原子三重項によるトレーニングは必要ではなく学習を加速し,第2ホップの一般化は特定の構成構造へのクエリレベル露出に依存する。
論文 参考訳(メタデータ) (2025-05-29T17:02:49Z) - Evaluating Readability and Faithfulness of Concept-based Explanations [35.48852504832633]
概念に基づく説明は、大規模言語モデルによって学習された高レベルのパターンを説明するための有望な道として現れます。
現在の手法は、統一的な形式化を欠いた異なる視点から概念にアプローチする。
これにより、概念の中核となる尺度、すなわち忠実さや可読性を評価するのが難しくなります。
論文 参考訳(メタデータ) (2024-04-29T09:20:25Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - On the Objective Evaluation of Post Hoc Explainers [10.981508361941335]
機械学習研究の最近の傾向は、それらがブラックボックスであると考えられる程度に、ますます複雑化しているアルゴリズムにつながっている。
意思決定の不透明度を低減するため、そのようなモデルの内部動作を人間に理解可能な方法で解釈する手法が提案されている。
本稿では,モデルの加法構造から直接導出される地底真理に基づくポストホック説明器の評価のための枠組みを提案する。
論文 参考訳(メタデータ) (2021-06-15T19:06:51Z) - CURI: A Benchmark for Productive Concept Learning Under Uncertainty [33.83721664338612]
我々は、新しい数ショットメタラーニングベンチマーク、コンポジション推論を不確実性の下で導入する(CURI)。
CURIは、疎結合、生産的一般化、学習操作、変数バインディングなどの抽象的な理解を含む、生産的および体系的な一般化の異なる側面を評価します。
また、モデルに依存しない「構成性ギャップ」を定義し、それぞれの軸に沿って分布外分布を一般化することの難しさを評価する。
論文 参考訳(メタデータ) (2020-10-06T16:23:17Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。