論文の概要: Advancing Post Hoc Case Based Explanation with Feature Highlighting
- arxiv url: http://arxiv.org/abs/2311.03246v1
- Date: Mon, 6 Nov 2023 16:34:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 13:34:49.164241
- Title: Advancing Post Hoc Case Based Explanation with Feature Highlighting
- Title(参考訳): 特徴強調を用いたポストホックケースベース説明の進歩
- Authors: Eoin Kenny and Eoin Delaney and Mark Keane
- Abstract要約: テスト画像中の複数の明瞭な特徴部分を分離し、トレーニングデータに見られる説明事例に接続する2つの一般的なアルゴリズムを提案する。
提案手法は,実世界データにおける曖昧な分類に対して,ユーザの「正確さ」感を適切に校正することを示す。
- 参考スコア(独自算出の注目度): 0.8287206589886881
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI (XAI) has been proposed as a valuable tool to assist in
downstream tasks involving human and AI collaboration. Perhaps the most
psychologically valid XAI techniques are case based approaches which display
'whole' exemplars to explain the predictions of black box AI systems. However,
for such post hoc XAI methods dealing with images, there has been no attempt to
improve their scope by using multiple clear feature 'parts' of the images to
explain the predictions while linking back to relevant cases in the training
data, thus allowing for more comprehensive explanations that are faithful to
the underlying model. Here, we address this gap by proposing two general
algorithms (latent and super pixel based) which can isolate multiple clear
feature parts in a test image, and then connect them to the explanatory cases
found in the training data, before testing their effectiveness in a carefully
designed user study. Results demonstrate that the proposed approach
appropriately calibrates a users feelings of 'correctness' for ambiguous
classifications in real world data on the ImageNet dataset, an effect which
does not happen when just showing the explanation without feature highlighting.
- Abstract(参考訳): 説明可能なAI(XAI)は、人間とAIのコラボレーションを含む下流タスクを支援する貴重なツールとして提案されている。
おそらく最も心理学的に有効なXAIテクニックは、ケースベースのアプローチであり、ブラックボックスAIシステムの予測を説明する'全体'の例を示す。
しかし、こうした画像を扱うポストホックXAI法では、トレーニングデータ内の関連事例にリンクしながら、画像の複数の明瞭な特徴「部分」を用いて予測を説明することによって、そのスコープを改善する試みは行われていないため、基礎となるモデルに忠実なより包括的な説明が可能になる。
そこで本研究では,テスト画像中の複数の明瞭な特徴部分を分離し,トレーニングデータに見られる説明的事例に接続し,その有効性を慎重に設計したユーザスタディで検証する,2つの一般的なアルゴリズム(レイテンシとスーパーピクセルベース)を提案する。
その結果、提案手法は、画像Netデータセット上の実世界データにおける曖昧な分類に対するユーザの「正確さ」の感情を適切に校正することを示した。
関連論文リスト
- Positive-Unlabelled Learning for Improving Image-based Recommender System Explainability [2.9748898344267785]
本研究は,Positive-Unlabelled (PU) Learning技術を活用することで,新たな説明者トレーニングパイプラインを提案する。
実験により、このPUベースのアプローチは、6つの人気のある実世界のデータセットで最先端の非PUメソッドよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-07-09T10:40:31Z) - Raising the Bar of AI-generated Image Detection with CLIP [50.345365081177555]
本研究の目的は、AI生成画像の普遍的検出のための事前学習された視覚言語モデル(VLM)の可能性を探ることである。
我々は,CLIP機能に基づく軽量な検出戦略を開発し,その性能を様々な難易度シナリオで検証する。
論文 参考訳(メタデータ) (2023-11-30T21:11:20Z) - Extending CAM-based XAI methods for Remote Sensing Imagery Segmentation [7.735470452949379]
我々は,モデルの不確実性を測定するために,「エントロピー」に基づく新しいXAI評価手法とメトリクスを導入する。
本研究では,Entropyを用いて,対象クラス内の画素のセグメンテーションにおけるモデル不確実性を監視することがより適切であることを示す。
論文 参考訳(メタデータ) (2023-10-03T07:01:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - An Efficient Ensemble Explainable AI (XAI) Approach for Morphed Face
Detection [1.2599533416395763]
深層学習予測モデル(EfficientNet-Grad1)のより包括的な視覚的説明を提供するために,Ensemble XAIという新しい視覚的説明手法を提案する。
実験は、Face Research Lab London Set、Wide Multi-Channel Presentation Attack (WMCA)、Makeup induced Face Spoofing (MIFS)の3つの公開データセットで実施された。
論文 参考訳(メタデータ) (2023-04-23T13:43:06Z) - Foiling Explanations in Deep Neural Networks [0.0]
本稿では,画像ベースDNNにおける説明手法の問題点を明らかにする。
進化戦略を用いて、説明を任意に操作する方法を実証する。
我々の新しいアルゴリズムは、人間の目では認識できない方法で画像の操作に成功している。
論文 参考訳(メタデータ) (2022-11-27T15:29:39Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - Unpaired Image Captioning by Image-level Weakly-Supervised Visual
Concept Recognition [83.93422034664184]
未ペア画像キャプション(UIC)とは、訓練段階で画像キャプチャペアを使わずに画像を記述することである。
既存の研究の多くは、既成のアルゴリズムを使って視覚的概念を得る。
画像レベルラベルを用いたコスト効率の高いUICを実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-07T08:02:23Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。