論文の概要: Explaining Image Classifiers with Multiscale Directional Image
Representation
- arxiv url: http://arxiv.org/abs/2211.12857v3
- Date: Fri, 28 Apr 2023 12:58:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 17:19:34.310487
- Title: Explaining Image Classifiers with Multiscale Directional Image
Representation
- Title(参考訳): マルチスケール方向画像表現を用いた画像分類器の解説
- Authors: Stefan Kolek, Robert Windesheim, Hector Andrade Loarca, Gitta
Kutyniok, Ron Levie
- Abstract要約: 本稿では,シャーレット変換に基づく画像分類器のマスク説明手法であるShearletXを提案する。
本手法を支援するために,説明人工物に関する数学的定義と,マスク説明の質を評価するための情報理論スコアを提案する。
- 参考スコア(独自算出の注目度): 4.29434097275489
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image classifiers are known to be difficult to interpret and therefore
require explanation methods to understand their decisions. We present
ShearletX, a novel mask explanation method for image classifiers based on the
shearlet transform -- a multiscale directional image representation. Current
mask explanation methods are regularized by smoothness constraints that protect
against undesirable fine-grained explanation artifacts. However, the smoothness
of a mask limits its ability to separate fine-detail patterns, that are
relevant for the classifier, from nearby nuisance patterns, that do not affect
the classifier. ShearletX solves this problem by avoiding smoothness
regularization all together, replacing it by shearlet sparsity constraints. The
resulting explanations consist of a few edges, textures, and smooth parts of
the original image, that are the most relevant for the decision of the
classifier. To support our method, we propose a mathematical definition for
explanation artifacts and an information theoretic score to evaluate the
quality of mask explanations. We demonstrate the superiority of ShearletX over
previous mask based explanation methods using these new metrics, and present
exemplary situations where separating fine-detail patterns allows explaining
phenomena that were not explainable before.
- Abstract(参考訳): 画像分類器は解釈が難しいことが知られており、その決定を理解するには説明方法が必要である。
本稿では,マルチスケール指向画像表現のシャーレット変換に基づく画像分類器のマスク説明手法であるShearletXを提案する。
現在のマスクの説明方法は、望ましくない細かい説明アーティファクトから保護する滑らかさの制約によって規則化される。
しかし、マスクの滑らかさは、分類器に関係のある細部パターンを、分類器に影響を与えない近くのニュアンスパターンから分離する能力を制限している。
shearletx は、滑らかさの正規化を全て回避し、それを shearlet sparsity 制約に置き換えることでこの問題を解決している。
その結果得られた説明は、分類器の決定に最も関係のある原画像のいくつかのエッジ、テクスチャ、滑らかな部分から構成されている。
本手法を支援するために,説明人工物に関する数学的定義と,マスク説明の質を評価するための情報理論スコアを提案する。
従来のマスクを用いた説明手法よりもShearletXの方が優れていることを示すとともに,これまで説明できなかった現象を説明できるような細部パターンの分離が実例を示す。
関連論文リスト
- MaskInversion: Localized Embeddings via Optimization of Explainability Maps [49.50785637749757]
MaskInversionは、テスト時にマスクによって指定されたクエリ画像領域に対するコンテキスト認識の埋め込みを生成する。
オープン語彙のクラス検索、表現理解の参照、局所的なキャプションや画像生成など、幅広いタスクに使用することができる。
論文 参考訳(メタデータ) (2024-07-29T14:21:07Z) - DXAI: Explaining Classification by Image Decomposition [4.013156524547072]
我々は、分解に基づく説明可能なAI(DXAI)を用いてニューラルネットワークの分類を可視化する新しい方法を提案する。
本手法は,説明熱マップを提供する代わりに,画像のクラス非依存部分とクラス固有部分への分解を行う。
論文 参考訳(メタデータ) (2023-12-30T20:52:20Z) - Multiple Different Black Box Explanations for Image Classifiers [14.182742896993974]
与えられた画像に対するブラックボックス画像分類器の出力に関する複数の説明を計算するためのアルゴリズムとツールであるMultiReXについて述べる。
我々のアルゴリズムは因果理論に基づく原理的アプローチを用いる。
ImageNet-miniベンチマークでは、画像の96%にMultiReXが複数説明されているのに対し、以前の研究では11%しか説明されていない。
論文 参考訳(メタデータ) (2023-09-25T17:28:28Z) - MaskSketch: Unpaired Structure-guided Masked Image Generation [56.88038469743742]
MaskSketchは、サンプリング中の余分な条件信号としてガイドスケッチを使用して生成結果の空間的条件付けを可能にする画像生成方法である。
マスク付き生成変換器の中間自己アテンションマップが入力画像の重要な構造情報を符号化していることを示す。
以上の結果から,MaskSketchは誘導構造に対する高画像リアリズムと忠実性を実現する。
論文 参考訳(メタデータ) (2023-02-10T20:27:02Z) - What You See is What You Classify: Black Box Attributions [61.998683569022006]
我々は、トレーニング済みのブラックボックス分類器であるExpplanandumの属性を予測するために、ディープネットワークであるExplainerを訓練する。
既存のほとんどのアプローチとは異なり、我々の手法はクラス固有のマスクを直接生成することができる。
我々の属性は、視覚的および定量的に確立された方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-23T12:30:04Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Investigating and Simplifying Masking-based Saliency Methods for Model
Interpretability [5.387323728379395]
画像の最も情報性の高い領域を識別する残差マップは、モデル解釈可能性に有用である。
唾液マップを作成するための一般的なアプローチは、画像の一部をマスクする入力マスクを生成することである。
マスキングモデルでは,クラス毎に10個のサンプルをトレーニングすることが可能であり,ローカライズエラーが0.7ポイントしか増加せず,いまだにサリエンシマップを生成可能であることを示す。
論文 参考訳(メタデータ) (2020-10-19T18:00:36Z) - Causal Intervention for Weakly-Supervised Semantic Segmentation [122.1846968696862]
画像レベルのラベルのみを用いて、より優れたピクセルレベルの擬似マスクを生成することを目指している。
画像,コンテキスト,およびクラスラベル間の因果関係を分析するための構造因果モデルを提案する。
そこで本研究では,画像レベルの分類において,矛盾するバイアスを取り除くためのコンテキスト調整(CONTA)手法を提案する。
論文 参考訳(メタデータ) (2020-09-26T09:26:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。