論文の概要: Toward Simple and Robust Contrastive Explanations for Image Classification by Leveraging Instance Similarity and Concept Relevance
- arxiv url: http://arxiv.org/abs/2506.23975v1
- Date: Mon, 30 Jun 2025 15:41:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:54.133008
- Title: Toward Simple and Robust Contrastive Explanations for Image Classification by Leveraging Instance Similarity and Concept Relevance
- Title(参考訳): インスタンス類似性と概念関連性を活用した画像分類のための単純かつロバストな比較記述に向けて
- Authors: Yuliia Kaidashova, Bettina Finzel, Ute Schmid,
- Abstract要約: 本研究は, 微調整深層学習モデルで用いられる, インスタンス埋め込みの類似性と人間の理解可能な概念の関連性を活用することにより, 画像分類のための概念に基づくコントラスト的説明を実現する。
提案手法は, 関連性スコアを用いて概念を抽出し, 類似事例のコントラストを計算し, 説明複雑性に基づくコントラスト的説明を評価する。
- 参考スコア(独自算出の注目度): 1.9897061813159418
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding why a classification model prefers one class over another for an input instance is the challenge of contrastive explanation. This work implements concept-based contrastive explanations for image classification by leveraging the similarity of instance embeddings and relevance of human-understandable concepts used by a fine-tuned deep learning model. Our approach extracts concepts with their relevance score, computes contrasts for similar instances, and evaluates the resulting contrastive explanations based on explanation complexity. Robustness is tested for different image augmentations. Two research questions are addressed: (1) whether explanation complexity varies across different relevance ranges, and (2) whether explanation complexity remains consistent under image augmentations such as rotation and noise. The results confirm that for our experiments higher concept relevance leads to shorter, less complex explanations, while lower relevance results in longer, more diffuse explanations. Additionally, explanations show varying degrees of robustness. The discussion of these findings offers insights into the potential of building more interpretable and robust AI systems.
- Abstract(参考訳): 分類モデルが入力インスタンスに対して、あるクラスよりも別のクラスを好む理由を理解することは、対照的な説明の挑戦である。
本研究は, 微調整深層学習モデルで用いられる, インスタンス埋め込みの類似性と人間の理解可能な概念の関連性を活用することにより, 画像分類のための概念に基づくコントラスト的説明を実現する。
提案手法は, 関連性スコアを用いて概念を抽出し, 類似事例のコントラストを計算し, 説明複雑性に基づくコントラスト的説明を評価する。
ロバストネスは、異なる画像拡張のためにテストされる。
2つの研究課題に対処する:(1) 説明複雑性が関連範囲によって異なるか、(2) 説明複雑性が回転や雑音などの画像強化の下で一定であるか。
その結果, 概念的関連性の向上は, より短く, より複雑で, より低い関連性はより長く, より広範に説明できることがわかった。
さらに、説明は様々な強靭性を示す。
これらの発見の議論は、より解釈可能で堅牢なAIシステムを構築する可能性に関する洞察を提供する。
関連論文リスト
- CNN-based explanation ensembling for dataset, representation and explanations evaluation [1.1060425537315088]
畳み込みモデルを用いた深層分類モデルによる説明文の要約の可能性について検討する。
実験と分析を通じて、モデル行動のより一貫性と信頼性のあるパターンを明らかにするために、説明を組み合わせることの意味を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-04-16T08:39:29Z) - Interpretable Measures of Conceptual Similarity by
Complexity-Constrained Descriptive Auto-Encoding [112.0878081944858]
画像間の類似度を定量化することは、画像ベースの機械学習にとって重要な著作権問題である。
我々は,高次関係を捉えた画像間での「概念的類似性」の概念を定義し,計算することを目指している。
2つの非常に異種な画像は、その記述の早い段階で識別できるが、概念的に異種な画像は、より詳細を区別する必要がある。
論文 参考訳(メタデータ) (2024-02-14T03:31:17Z) - Contrastive Corpus Attribution for Explaining Representations [17.07084455770185]
ほとんどの説明手法はスカラーモデルの出力を説明する。
最近の研究はスカラーの説明出力を定義しており、説明されているサンプルの表現空間におけるドット積に基づく類似性を定義している。
本稿では,新規で意味のあるスカラー説明出力であるコントラストコーパス類似性を提案する。
論文 参考訳(メタデータ) (2022-09-30T21:59:10Z) - Understanding Contrastive Learning Requires Incorporating Inductive
Biases [64.56006519908213]
下流タスクにおけるコントラスト学習の成功を理論的に説明しようとする最近の試みは、エム強化の特性とエムコントラスト学習の損失の値によって保証が証明されている。
このような分析は,関数クラスやトレーニングアルゴリズムの帰納的バイアスを無視し,いくつかの設定において不確実な保証につながることを実証する。
論文 参考訳(メタデータ) (2022-02-28T18:59:20Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Few-shot Visual Reasoning with Meta-analogical Contrastive Learning [141.2562447971]
本稿では,類似推論に頼って,数ショット(または低ショット)の視覚推論問題を解くことを提案する。
両領域の要素間の構造的関係を抽出し、類似学習と可能な限り類似するように強制する。
RAVENデータセット上での本手法の有効性を検証し, トレーニングデータが少ない場合, 最先端の手法より優れることを示す。
論文 参考訳(メタデータ) (2020-07-23T14:00:34Z) - Explainable Image Classification with Evidence Counterfactual [0.0]
画像分類のためのモデルに依存しないインスタンスレベルの説明法としてSEDCを導入する。
ある画像に対して、SEDCは、削除された場合、分類を変更する小さなセグメントの集合を検索する。
我々は,SEDC(-T) と LRP, LIME, SHAP などの特徴重要度評価手法を比較し, 上記の重要度ランキング問題にどう対処するかを述べる。
論文 参考訳(メタデータ) (2020-04-16T08:02:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。