論文の概要: Why Does It Look There? Structured Explanations for Image Classification
- arxiv url: http://arxiv.org/abs/2603.10234v1
- Date: Tue, 10 Mar 2026 21:15:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.695158
- Title: Why Does It Look There? Structured Explanations for Image Classification
- Title(参考訳): なぜそこに見えるのか? 画像分類のための構造的説明
- Authors: Jiarui Li, Zixiang Yin, Samuel J Landry, Zhengming Ding, Ramgopal R. Mettu,
- Abstract要約: Interpretability to Explainability (I2X)は、構造化されていない解釈可能性から直接構造化された説明を構築するフレームワークである。
I2Xは、異なるモデルアーキテクチャとデータセット間の予測を改善するために使用できることを示す。
- 参考スコア(独自算出の注目度): 31.62439146845817
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models achieve remarkable predictive performance, yet their black-box nature limits transparency and trustworthiness. Although numerous explainable artificial intelligence (XAI) methods have been proposed, they primarily provide saliency maps or concepts (i.e., unstructured interpretability). Existing approaches often rely on auxiliary models (\eg, GPT, CLIP) to describe model behavior, thereby compromising faithfulness to the original models. We propose Interpretability to Explainability (I2X), a framework that builds structured explanations directly from unstructured interpretability by quantifying progress at selected checkpoints during training using prototypes extracted from post-hoc XAI methods (e.g., GradCAM). I2X answers the question of "why does it look there" by providing a structured view of both intra- and inter-class decision making during training. Experiments on MNIST and CIFAR10 demonstrate effectiveness of I2X to reveal prototype-based inference process of various image classification models. Moreover, we demonstrate that I2X can be used to improve predictions across different model architectures and datasets: we can identify uncertain prototypes recognized by I2X and then use targeted perturbation of samples that allows fine-tuning to ultimately improve accuracy. Thus, I2X not only faithfully explains model behavior but also provides a practical approach to guide optimization toward desired targets.
- Abstract(参考訳): ディープラーニングモデルは驚くべき予測性能を達成するが、ブラックボックスの性質は透明性と信頼性を制限している。
多数の説明可能な人工知能(XAI)手法が提案されているが、主にサリエンシマップや概念(非構造的解釈可能性)を提供する。
既存のアプローチはしばしばモデルの振る舞いを記述する補助モデル (\eg, GPT, CLIP) に依存しており、それによって元のモデルへの忠実さを損なう。
本稿では,ポストホックXAI法(GradCAMなど)から抽出したプロトタイプを用いて,トレーニング中に選択したチェックポイントの進捗状況を定量化し,非構造的解釈可能性から直接構造的説明を構築するフレームワークである説明可能性(Interpretability to Explainability, I2X)を提案する。
I2Xは、トレーニング中のクラス内およびクラス間の意思決定の構造化ビューを提供することで、"なぜそこに見えるのか"という質問に答える。
MNISTとCIFAR10の実験は、様々な画像分類モデルのプロトタイプベース推論プロセスを明らかにするために、I2Xの有効性を示した。
さらに、I2Xは、異なるモデルアーキテクチャやデータセットの予測を改善するために使用することができ、I2Xで認識された不確実なプロトタイプを識別し、細調整によって最終的な精度を向上させるサンプルの標的摂動を使用することができる。
したがって、I2Xはモデルの振る舞いを忠実に説明するだけでなく、目的に向かって最適化を導くための実践的なアプローチも提供します。
関連論文リスト
- VerLM: Explaining Face Verification Using Natural Language [50.56081916981731]
顔認証のための革新的視覚言語モデル(VLM)を提案する。
我々のモデルは2つの補完的な説明スタイルを用いて一意に訓練されている。
提案するVLMは,高度な特徴抽出技術と高度な推論機能を統合し,検証プロセスの明瞭な記述を可能にする。
論文 参考訳(メタデータ) (2026-01-05T05:16:07Z) - Enhancing Interpretability for Vision Models via Shapley Value Optimization [10.809438356590988]
自己説明型ニューラルネットワークは、特別なアーキテクチャ設計のため、パフォーマンスと互換性を犠牲にする。
本稿では,Shapley値推定をトレーニング中の補助タスクとして統合する,新たな自己説明型フレームワークを提案する。
我々の手法は最先端の解釈可能性を実現する。
論文 参考訳(メタデータ) (2025-12-16T12:33:04Z) - EPIC: Explanation of Pretrained Image Classification Networks via Prototype [6.619564359642066]
EPIC(Explanation of Pretrained Image Classification)は、アンテホックとポストホックの説明のギャップを埋める新しいアプローチである。
アンテホックなテクニックにインスパイアされた、直感的でプロトタイプベースの説明を提供する。
プロトタイプベースの説明によく用いられるベンチマークデータセット上でEPICを評価する。
論文 参考訳(メタデータ) (2025-05-19T09:32:20Z) - Harnessing Diffusion Models for Visual Perception with Meta Prompts [68.78938846041767]
本稿では,視覚知覚タスクの拡散モデルを用いた簡易かつ効果的な手法を提案する。
学習可能な埋め込み(メタプロンプト)を事前学習した拡散モデルに導入し、知覚の適切な特徴を抽出する。
提案手法は,NYU 深度 V2 と KITTI の深度推定タスク,および CityScapes のセマンティックセグメンテーションタスクにおいて,新しい性能記録を実現する。
論文 参考訳(メタデータ) (2023-12-22T14:40:55Z) - Learning to Explain: A Model-Agnostic Framework for Explaining Black Box
Models [9.945345991490624]
本稿では、視覚モデルに対するポストホックな説明を提供するためのモデルに依存しないフレームワークであるLearning to Explain(LTX)を紹介する。
LTXフレームワークは、説明マップを生成する"説明者"モデルを導入し、説明されているモデルの予測を正当化する重要な領域を強調している。
LTXは、様々な指標において、現在の最先端の説明可能性を大幅に上回っていることを実証する。
論文 参考訳(メタデータ) (2023-10-25T12:18:00Z) - COSE: A Consistency-Sensitivity Metric for Saliency on Image
Classification [21.3855970055692]
本稿では,画像分類タスクにおいて,視覚の先行値を用いてサリエンシ手法の性能を評価する指標について述べる。
しかし,ほとんどの手法では,畳み込みモデルよりもトランスフォーマーモデルの方がよく説明できる。
論文 参考訳(メタデータ) (2023-09-20T01:06:44Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - ContraFeat: Contrasting Deep Features for Semantic Discovery [102.4163768995288]
StyleGANは、アンタングル化セマンティックコントロールの強い可能性を示している。
StyleGANの既存の意味発見手法は、修正された潜在層を手作業で選択することで、良好な操作結果が得られる。
本稿では,このプロセスを自動化し,最先端のセマンティック発見性能を実現するモデルを提案する。
論文 参考訳(メタデータ) (2022-12-14T15:22:13Z) - Greybox XAI: a Neural-Symbolic learning framework to produce
interpretable predictions for image classification [6.940242990198]
Greybox XAIは、シンボリック知識ベース(KB)を使うことで、DNNと透明モデルを構成するフレームワークである。
我々は、XAIの普遍的基準が欠如している問題に、説明が何であるかを形式化することで対処する。
この新しいアーキテクチャがどのように正確で、いくつかのデータセットで説明可能であるかを示す。
論文 参考訳(メタデータ) (2022-09-26T08:55:31Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。