論文の概要: Clarity: an improved gradient method for producing quality visual
counterfactual explanations
- arxiv url: http://arxiv.org/abs/2211.15370v1
- Date: Tue, 22 Nov 2022 10:53:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-04 13:49:16.090445
- Title: Clarity: an improved gradient method for producing quality visual
counterfactual explanations
- Title(参考訳): Clarity: 高品質な視覚対実的説明を生成するための改善された勾配法
- Authors: Claire Theobald, Fr\'ed\'eric Pennerath, Brieuc Conan-Guez, Miguel
Couceiro, Amedeo Napoli
- Abstract要約: 視覚的対物的説明は、分類器の予測を変えるような画像への修正を特定する。
本稿では、生成モデル(VAE)と、潜在空間で直接訓練された分類器アンサンブルに基づく手法を提案する。
これらの改善により、新しい分類モデルであるClarityが、すべての画像に対して現実的な対実的な説明を生成する。
- 参考スコア(独自算出の注目度): 7.279730418361996
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Visual counterfactual explanations identify modifications to an image that
would change the prediction of a classifier. We propose a set of techniques
based on generative models (VAE) and a classifier ensemble directly trained in
the latent space, which all together, improve the quality of the gradient
required to compute visual counterfactuals. These improvements lead to a novel
classification model, Clarity, which produces realistic counterfactual
explanations over all images. We also present several experiments that give
insights on why these techniques lead to better quality results than those in
the literature. The explanations produced are competitive with the
state-of-the-art and emphasize the importance of selecting a meaningful input
space for training.
- Abstract(参考訳): 視覚的な反事実的説明は、分類器の予測を変更するイメージの変更を識別する。
本稿では、生成モデル(VAE)と、潜在空間で直接訓練された分類器アンサンブルに基づく一連の手法を提案する。
これらの改善は、新しい分類モデルであるclarityにつながり、すべての画像に対して現実的な反事実的説明を生み出す。
また,これらの手法が文献のそれよりも優れた品質結果をもたらす理由を考察する実験もいくつか実施する。
得られた説明は最先端技術と競合し、トレーニングに意味のある入力空間を選択することの重要性を強調している。
関連論文リスト
- Diffusion-based Visual Counterfactual Explanations -- Towards Systematic
Quantitative Evaluation [64.0476282000118]
視覚的対物的説明法(VCE)の最新手法は、深い生成モデルの力を利用して、印象的な画質の高次元画像の新しい例を合成する。
評価手順が大きく異なり,個々の実例の視覚検査や小規模なユーザスタディなど,これらのVCE手法の性能を比較することは,現時点では困難である。
本稿では,VCE手法の体系的,定量的評価のためのフレームワークと,使用する指標の最小セットを提案する。
論文 参考訳(メタデータ) (2023-08-11T12:22:37Z) - Text Descriptions are Compressive and Invariant Representations for
Visual Learning [63.3464863723631]
本研究では,クラスごとの複数の視覚的特徴に対する人間の理解に則って,頑健な数ショット学習環境では魅力的な性能が得られることを示す。
特に,SLR-AVD (Sparse Logistic Regression using Augmented Visual Descriptors) という新しい手法を導入する。
このメソッドはまず、まず大きな言語モデル(LLM)を介して各クラスの複数の視覚的記述を自動生成し、次にVLMを使用してこれらの記述を各画像の視覚的特徴埋め込みに変換し、最後に、これらの特徴の関連するサブセットを選択するためにスパースロジスティック回帰を使用する。
論文 参考訳(メタデータ) (2023-07-10T03:06:45Z) - SgVA-CLIP: Semantic-guided Visual Adapting of Vision-Language Models for
Few-shot Image Classification [84.05253637260743]
本稿では,セマンティック誘導視覚適応(SgVA)と呼ばれる新しいフレームワークを提案する。
SgVAは、視覚特異的のコントラスト損失、クロスモーダルのコントラスト損失、暗黙の知識蒸留を包括的に利用することで、識別的なタスク固有の視覚特徴を生成する。
13のデータセットの最先端の結果は、適応された視覚的特徴が、クロスモーダルな特徴を補完し、少数の画像分類を改善することを実証している。
論文 参考訳(メタデータ) (2022-11-28T14:58:15Z) - Explaining Image Classifiers Using Contrastive Counterfactuals in
Generative Latent Spaces [12.514483749037998]
本稿では,画像分類器の因果的かつ解釈可能な反事実的説明を生成する新しい手法を提案する。
我々は、ブラックボックス分類器のグローバルな説明として、コントラスト的かつ因果的満足度と必要性スコアを得るために、このフレームワークを使用します。
論文 参考訳(メタデータ) (2022-06-10T17:54:46Z) - Improving the trustworthiness of image classification models by
utilizing bounding-box annotations [16.936384403276925]
本稿では,多くの画像分類データセットで利用可能な境界ボックス情報を含む学習目標の最適化を提案する。
予備実験の結果,提案アルゴリズムはベースラインと比較して精度,頑健性,解釈性に優れていた。
論文 参考訳(メタデータ) (2021-08-15T15:09:07Z) - Revisiting The Evaluation of Class Activation Mapping for
Explainability: A Novel Metric and Experimental Analysis [54.94682858474711]
クラスアクティベーションマッピング(cam)アプローチは、アクティベーションマップの平均を重み付けすることで、効果的な可視化を提供する。
説明マップを定量化するための新しいメトリクスセットを提案し、より効果的な方法を示し、アプローチ間の比較を簡素化します。
論文 参考訳(メタデータ) (2021-04-20T21:34:24Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Explaining Convolutional Neural Networks through Attribution-Based Input
Sampling and Block-Wise Feature Aggregation [22.688772441351308]
クラスアクティベーションマッピングとランダムな入力サンプリングに基づく手法が広く普及している。
しかし、帰属法は、その説明力を制限した解像度とぼやけた説明地図を提供する。
本研究では、帰属型入力サンプリング技術に基づいて、モデルの複数の層から可視化マップを収集する。
また,CNNモデル全体に適用可能な層選択戦略を提案する。
論文 参考訳(メタデータ) (2020-10-01T20:27:30Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。