論文の概要: Clarity: an improved gradient method for producing quality visual
counterfactual explanations
- arxiv url: http://arxiv.org/abs/2211.15370v1
- Date: Tue, 22 Nov 2022 10:53:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-04 13:49:16.090445
- Title: Clarity: an improved gradient method for producing quality visual
counterfactual explanations
- Title(参考訳): Clarity: 高品質な視覚対実的説明を生成するための改善された勾配法
- Authors: Claire Theobald, Fr\'ed\'eric Pennerath, Brieuc Conan-Guez, Miguel
Couceiro, Amedeo Napoli
- Abstract要約: 視覚的対物的説明は、分類器の予測を変えるような画像への修正を特定する。
本稿では、生成モデル(VAE)と、潜在空間で直接訓練された分類器アンサンブルに基づく手法を提案する。
これらの改善により、新しい分類モデルであるClarityが、すべての画像に対して現実的な対実的な説明を生成する。
- 参考スコア(独自算出の注目度): 7.279730418361996
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Visual counterfactual explanations identify modifications to an image that
would change the prediction of a classifier. We propose a set of techniques
based on generative models (VAE) and a classifier ensemble directly trained in
the latent space, which all together, improve the quality of the gradient
required to compute visual counterfactuals. These improvements lead to a novel
classification model, Clarity, which produces realistic counterfactual
explanations over all images. We also present several experiments that give
insights on why these techniques lead to better quality results than those in
the literature. The explanations produced are competitive with the
state-of-the-art and emphasize the importance of selecting a meaningful input
space for training.
- Abstract(参考訳): 視覚的な反事実的説明は、分類器の予測を変更するイメージの変更を識別する。
本稿では、生成モデル(VAE)と、潜在空間で直接訓練された分類器アンサンブルに基づく一連の手法を提案する。
これらの改善は、新しい分類モデルであるclarityにつながり、すべての画像に対して現実的な反事実的説明を生み出す。
また,これらの手法が文献のそれよりも優れた品質結果をもたらす理由を考察する実験もいくつか実施する。
得られた説明は最先端技術と競合し、トレーニングに意味のある入力空間を選択することの重要性を強調している。
関連論文リスト
- CoLa-DCE -- Concept-guided Latent Diffusion Counterfactual Explanations [2.3083192626377755]
概念誘導型遅延拡散対実例(CoLa-DCE)を紹介する。
CoLa-DCEは、概念選択と空間条件に関する高度な制御を持つ任意の分類器に対して、概念誘導対物を生成する。
我々は,複数の画像分類モデルとデータセットにまたがって,最小化と理解性のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2024-06-03T14:27:46Z) - Multi-Modal Prompt Learning on Blind Image Quality Assessment [65.0676908930946]
画像品質評価(IQA)モデルは意味情報から大きな恩恵を受け、異なる種類のオブジェクトを明瞭に扱うことができる。
十分な注釈付きデータが不足している従来の手法では、セマンティックな認識を得るために、CLIPイメージテキスト事前学習モデルをバックボーンとして使用していた。
近年のアプローチでは、このミスマッチに即時技術を使って対処する試みがあるが、これらの解決策には欠点がある。
本稿では、IQAのための革新的なマルチモーダルプロンプトベースの手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:45:32Z) - Text Descriptions are Compressive and Invariant Representations for
Visual Learning [63.3464863723631]
本研究では,クラスごとの複数の視覚的特徴に対する人間の理解に則って,頑健な数ショット学習環境では魅力的な性能が得られることを示す。
特に,SLR-AVD (Sparse Logistic Regression using Augmented Visual Descriptors) という新しい手法を導入する。
このメソッドはまず、まず大きな言語モデル(LLM)を介して各クラスの複数の視覚的記述を自動生成し、次にVLMを使用してこれらの記述を各画像の視覚的特徴埋め込みに変換し、最後に、これらの特徴の関連するサブセットを選択するためにスパースロジスティック回帰を使用する。
論文 参考訳(メタデータ) (2023-07-10T03:06:45Z) - SgVA-CLIP: Semantic-guided Visual Adapting of Vision-Language Models for
Few-shot Image Classification [84.05253637260743]
本稿では,セマンティック誘導視覚適応(SgVA)と呼ばれる新しいフレームワークを提案する。
SgVAは、視覚特異的のコントラスト損失、クロスモーダルのコントラスト損失、暗黙の知識蒸留を包括的に利用することで、識別的なタスク固有の視覚特徴を生成する。
13のデータセットの最先端の結果は、適応された視覚的特徴が、クロスモーダルな特徴を補完し、少数の画像分類を改善することを実証している。
論文 参考訳(メタデータ) (2022-11-28T14:58:15Z) - Explaining Image Classifiers Using Contrastive Counterfactuals in
Generative Latent Spaces [12.514483749037998]
本稿では,画像分類器の因果的かつ解釈可能な反事実的説明を生成する新しい手法を提案する。
我々は、ブラックボックス分類器のグローバルな説明として、コントラスト的かつ因果的満足度と必要性スコアを得るために、このフレームワークを使用します。
論文 参考訳(メタデータ) (2022-06-10T17:54:46Z) - Improving the trustworthiness of image classification models by
utilizing bounding-box annotations [16.936384403276925]
本稿では,多くの画像分類データセットで利用可能な境界ボックス情報を含む学習目標の最適化を提案する。
予備実験の結果,提案アルゴリズムはベースラインと比較して精度,頑健性,解釈性に優れていた。
論文 参考訳(メタデータ) (2021-08-15T15:09:07Z) - Revisiting The Evaluation of Class Activation Mapping for
Explainability: A Novel Metric and Experimental Analysis [54.94682858474711]
クラスアクティベーションマッピング(cam)アプローチは、アクティベーションマップの平均を重み付けすることで、効果的な可視化を提供する。
説明マップを定量化するための新しいメトリクスセットを提案し、より効果的な方法を示し、アプローチ間の比較を簡素化します。
論文 参考訳(メタデータ) (2021-04-20T21:34:24Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。