論文の概要: Leveraging Conditional Generative Models in a General Explanation
Framework of Classifier Decisions
- arxiv url: http://arxiv.org/abs/2106.10947v1
- Date: Mon, 21 Jun 2021 09:41:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:48:15.739941
- Title: Leveraging Conditional Generative Models in a General Explanation
Framework of Classifier Decisions
- Title(参考訳): 分類器決定の一般的な説明枠組みにおける条件付き生成モデルの活用
- Authors: Martin Charachon, Paul-Henry Courn\`ede, C\'eline Hudelot and Roberto
Ardon
- Abstract要約: 2つの生成した画像の差分として視覚的説明が生成可能であることを示す。
一般定式化の2つの異なる近似と実装を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Providing a human-understandable explanation of classifiers' decisions has
become imperative to generate trust in their use for day-to-day tasks. Although
many works have addressed this problem by generating visual explanation maps,
they often provide noisy and inaccurate results forcing the use of heuristic
regularization unrelated to the classifier in question. In this paper, we
propose a new general perspective of the visual explanation problem overcoming
these limitations. We show that visual explanation can be produced as the
difference between two generated images obtained via two specific conditional
generative models. Both generative models are trained using the classifier to
explain and a database to enforce the following properties: (i) All images
generated by the first generator are classified similarly to the input image,
whereas the second generator's outputs are classified oppositely. (ii)
Generated images belong to the distribution of real images. (iii) The distances
between the input image and the corresponding generated images are minimal so
that the difference between the generated elements only reveals relevant
information for the studied classifier. Using symmetrical and cyclic
constraints, we present two different approximations and implementations of the
general formulation. Experimentally, we demonstrate significant improvements
w.r.t the state-of-the-art on three different public data sets. In particular,
the localization of regions influencing the classifier is consistent with human
annotations.
- Abstract(参考訳): 分類器の決定を人間に理解可能な説明を提供することは、日々のタスクでの使用に対する信頼を生み出すために不可欠である。
視覚的説明図を作成することでこの問題に対処する研究は多いが、しばしばノイズや不正確な結果を与え、問題となる分類器とは無関係なヒューリスティック正規化を強制する。
本稿では,これらの限界を克服する視覚説明問題の新たな一般的展望を提案する。
2つの条件付き生成モデルを用いて得られた2つの生成画像間の差分として視覚的な説明を生成できることを示す。
両方の生成モデルは分類器を用いて訓練され、データベースは以下の特性を強制する: (i) 第一生成器によって生成されたすべての画像は入力画像と同様に分類されるが、第二生成器の出力は反対に分類される。
(ii)生成画像は、実画像の分布に属する。
3)入力画像と対応する生成画像との距離は最小限であり、生成された要素間の差が研究された分類器の関連情報のみを明らかにする。
対称的および巡回的制約を用いて, 2つの異なる近似と一般定式化の実装を示す。
実験により,3つの公開データセットにおける最先端技術に対する大幅な改善が示された。
特に、分類器に影響を与える領域の局在は人間のアノテーションと一致している。
関連論文リスト
- Contrastive Prompts Improve Disentanglement in Text-to-Image Diffusion
Models [68.47333676663312]
テキスト・ツー・イメージ・モデルにおける画像要素のアンタングル化に有効な分類器フリーガイダンスの簡単な修正法を示す。
提案手法のキーとなる考え方は、最小限のトークンで異なる2つのプロンプトを持つ意図された要因を特徴づけることである。
我々は,(1)オブジェクトクラスで訓練されたドメイン固有拡散モデル,(2)テキスト・画像生成のための連続的なリグライクな制御,(3)ゼロショット画像エディタの性能向上の3つのシナリオにおいて,その利点を説明する。
論文 参考訳(メタデータ) (2024-02-21T03:01:17Z) - Causal Generative Explainers using Counterfactual Inference: A Case
Study on the Morpho-MNIST Dataset [5.458813674116228]
本稿では,視覚的特徴と因果的要因の影響を研究するために,生成的対実的推論手法を提案する。
我々は,OmnixAIオープンソースツールキットの視覚的説明手法を用いて,提案手法との比較を行った。
このことから,本手法は因果的データセットの解釈に極めて適していることが示唆された。
論文 参考訳(メタデータ) (2024-01-21T04:07:48Z) - Object-Centric Relational Representations for Image Generation [18.069747511100132]
本稿では,オブジェクト中心のリレーショナル表現に基づく条件画像生成手法を提案する。
このようなアーキテクチャバイアスには,生成過程の操作と条件付けを容易にする特性が伴うことを示す。
また,関係表現と組み合わせた画像の合成データセットからなる画像生成のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2023-03-26T11:17:17Z) - Diffusion Visual Counterfactual Explanations [51.077318228247925]
VCE(Visual Counterfactual Explanations)は、画像の決定を理解するための重要なツールである。
VCEの生成に対する現在のアプローチは、逆向きに堅牢なモデルに制限されており、しばしば非現実的なアーティファクトを含んでいる。
本稿では、任意のイメージネット分類器に対して、視覚拡散対実説明(DVCE)を生成することでこれを克服する。
論文 参考訳(メタデータ) (2022-10-21T09:35:47Z) - Explaining Image Classifiers Using Contrastive Counterfactuals in
Generative Latent Spaces [12.514483749037998]
本稿では,画像分類器の因果的かつ解釈可能な反事実的説明を生成する新しい手法を提案する。
我々は、ブラックボックス分類器のグローバルな説明として、コントラスト的かつ因果的満足度と必要性スコアを得るために、このフレームワークを使用します。
論文 参考訳(メタデータ) (2022-06-10T17:54:46Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z) - Context-Aware Layout to Image Generation with Enhanced Object Appearance [123.62597976732948]
レイアウト・トゥ・イメージ(l2i)生成モデルの目的は、自然背景(スタフ)に対して複数のオブジェクト(もの)を含む複雑な画像を生成することである。
既存のL2Iモデルは大きな進歩を遂げているが、オブジェクト間とオブジェクト間の関係はしばしば壊れている。
これらの原因は、ジェネレータにコンテキスト認識オブジェクトや機能エンコーディングがないことと、識別装置に位置依存の外観表現がないことにあります。
論文 参考訳(メタデータ) (2021-03-22T14:43:25Z) - Combining Similarity and Adversarial Learning to Generate Visual
Explanation: Application to Medical Image Classification [0.0]
学習フレームワークを活用して視覚的説明法を作成する。
文献のメトリクスを用いることで,この手法は最先端のアプローチよりも優れています。
大規模な胸部X線データベース上でのアプローチを検証する。
論文 参考訳(メタデータ) (2020-12-14T08:34:12Z) - Autoregressive Unsupervised Image Segmentation [8.894935073145252]
入力から構築した異なるビュー間の相互情報に基づく教師なし画像分割手法を提案する。
提案手法は、教師なし画像セグメント化における最先端技術よりも優れている。
論文 参考訳(メタデータ) (2020-07-16T10:47:40Z) - OneGAN: Simultaneous Unsupervised Learning of Conditional Image
Generation, Foreground Segmentation, and Fine-Grained Clustering [100.32273175423146]
本研究では、教師なしの方法で、条件付き画像生成装置、前景抽出とセグメンテーション、オブジェクトの削除と背景補完を同時に学習する方法を提案する。
Geneversarative Adrial Network と Variational Auto-Encoder を組み合わせることで、複数のエンコーダ、ジェネレータ、ディスクリミネータを組み合わせ、全てのタスクを一度に解くことができる。
論文 参考訳(メタデータ) (2019-12-31T18:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。