論文の概要: Black Box Explanation by Learning Image Exemplars in the Latent Feature
Space
- arxiv url: http://arxiv.org/abs/2002.03746v1
- Date: Mon, 27 Jan 2020 15:42:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 07:49:53.949411
- Title: Black Box Explanation by Learning Image Exemplars in the Latent Feature
Space
- Title(参考訳): 潜伏特徴空間における画像例題学習によるブラックボックス説明
- Authors: Riccardo Guidotti, Anna Monreale, Stan Matwin, Dino Pedreschi
- Abstract要約: 画像分類のためのブラックボックスモデルの決定について説明する。
本手法は,対向オートエンコーダを用いて学習した潜在特徴空間を利用する。
提案手法は, 忠実度, 妥当性, 一貫性, 安定性の観点から, 既存の説明よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 20.16179026989117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an approach to explain the decisions of black box models for image
classification. While using the black box to label images, our explanation
method exploits the latent feature space learned through an adversarial
autoencoder. The proposed method first generates exemplar images in the latent
feature space and learns a decision tree classifier. Then, it selects and
decodes exemplars respecting local decision rules. Finally, it visualizes them
in a manner that shows to the user how the exemplars can be modified to either
stay within their class, or to become counter-factuals by "morphing" into
another class. Since we focus on black box decision systems for image
classification, the explanation obtained from the exemplars also provides a
saliency map highlighting the areas of the image that contribute to its
classification, and areas of the image that push it into another class. We
present the results of an experimental evaluation on three datasets and two
black box models. Besides providing the most useful and interpretable
explanations, we show that the proposed method outperforms existing explainers
in terms of fidelity, relevance, coherence, and stability.
- Abstract(参考訳): 本稿では,画像分類のためのブラックボックスモデルの決定を説明する手法を提案する。
画像のラベル付けにブラックボックスを使用中,提案手法は,対向オートエンコーダを用いて学習した潜在特徴空間を利用する。
提案手法は,まず潜在特徴空間の例画像を生成し,決定木分類器を学習する。
そして、局所的な決定規則に関する例を選択・復号する。
最後に、exemplarsをクラス内に保持するか、別のクラスに"モーフィング"することで反事実になるように変更する方法をユーザに示す方法で、それらを視覚化する。
画像分類のためのブラックボックス決定システムに焦点を当てているため、例示から得られた説明は、その分類に寄与する画像の領域と、それを別のクラスにプッシュする画像の領域を強調するサリエンシーマップを提供する。
3つのデータセットと2つのブラックボックスモデルに対する実験結果を示す。
提案手法は,最も有用かつ解釈可能な説明を提供するとともに,忠実度,妥当性,一貫性,安定性の観点から既存説明よりも優れていることを示す。
関連論文リスト
- Accurate Explanation Model for Image Classifiers using Class Association Embedding [5.378105759529487]
本稿では,グローバルな知識とローカルな知識の利点を組み合わせた生成的説明モデルを提案する。
クラスアソシエーション埋め込み(CAE)は、各サンプルを1組のクラス関連コードと個別コードにエンコードする。
クラス関連特徴を個々の特徴から効率的に分離するビルディングブロック・コヒーレンシー特徴抽出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-12T07:41:00Z) - Leveraging Open-Vocabulary Diffusion to Camouflaged Instance
Segmentation [59.78520153338878]
テキスト・ツー・イメージ拡散技術は、テキスト記述から高品質な画像を生成する素晴らしい能力を示している。
そこで本研究では,オープン語彙を応用した最先端拡散モデルを用いて,多スケールのテキスト・視覚的特徴を学習する手法を提案する。
論文 参考訳(メタデータ) (2023-12-29T07:59:07Z) - Identifying Interpretable Subspaces in Image Representations [54.821222487956355]
コントラスト概念(FALCON)を用いて画像表現の特徴を説明する枠組みを提案する。
ターゲット機能として、FALCONは、大きなキャプションデータセットとCLIPのようなトレーニング済みの視覚言語モデルを使用して、高機能なトリミング画像をキャプションする。
キャプション内の各単語は、少数の共有された人間の理解可能な概念に導かれ、ランク付けされる。
論文 参考訳(メタデータ) (2023-07-20T00:02:24Z) - What You See is What You Classify: Black Box Attributions [61.998683569022006]
我々は、トレーニング済みのブラックボックス分類器であるExpplanandumの属性を予測するために、ディープネットワークであるExplainerを訓練する。
既存のほとんどのアプローチとは異なり、我々の手法はクラス固有のマスクを直接生成することができる。
我々の属性は、視覚的および定量的に確立された方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-23T12:30:04Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Reinforcement Explanation Learning [4.852320309766702]
従順写像を生成するブラックボックス法は、決定を説明するためにモデルの内部を使わないという事実から、特に興味深い。
逐次探索問題としてサリエンシマップ生成を定式化し、強化学習(RL)を利用して入力画像から証拠を蓄積する。
3つのベンチマークデータセットの実験は、提案手法がパフォーマンスを損なわずに最先端の予測時間よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-26T10:20:01Z) - White Box Methods for Explanations of Convolutional Neural Networks in
Image Classification Tasks [3.3959642559854357]
畳み込みニューラルネットワーク(CNN)は,画像分類作業における技術性能の状態を実証している。
ネットワークによる予測の背後にある推論を理解するために、いくつかのアプローチが提案されている。
我々は、ネットワークの内部アーキテクチャの情報を利用してその決定を説明するホワイトボックスメソッドに重点を置いている。
論文 参考訳(メタデータ) (2021-04-06T14:40:00Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。