論文の概要: Information-Theoretic Visual Explanation for Black-Box Classifiers
- arxiv url: http://arxiv.org/abs/2009.11150v2
- Date: Fri, 16 Jul 2021 07:40:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 16:19:17.028040
- Title: Information-Theoretic Visual Explanation for Black-Box Classifiers
- Title(参考訳): ブラックボックス分類器の視覚情報理論
- Authors: Jihun Yi, Eunji Kim, Siwon Kim, Sungroh Yoon
- Abstract要約: 本研究では,情報理論の観点から,ブラックボックス分類器の予測について説明する。
我々は、情報ゲイン(IG)マップとポイントワイド相互情報(PMI)マップの2つの属性マップを得る。
提案手法は,既存の手法と比較して,定量的な計量による帰属写像の正当性を向上させる。
- 参考スコア(独自算出の注目度): 30.62290460123988
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we attempt to explain the prediction of any black-box
classifier from an information-theoretic perspective. For each input feature,
we compare the classifier outputs with and without that feature using two
information-theoretic metrics. Accordingly, we obtain two attribution maps--an
information gain (IG) map and a point-wise mutual information (PMI) map. IG map
provides a class-independent answer to "How informative is each pixel?", and
PMI map offers a class-specific explanation of "How much does each pixel
support a specific class?" Compared to existing methods, our method improves
the correctness of the attribution maps in terms of a quantitative metric. We
also provide a detailed analysis of an ImageNet classifier using the proposed
method, and the code is available online.
- Abstract(参考訳): 本研究では,情報理論の観点から,ブラックボックス分類器の予測について説明する。
各入力機能について,2つの情報理論指標を用いて分類器出力と特徴の有無を比較した。
したがって,2つの帰属マップ,--an information gain (ig) map と point-wise mutual information (pmi) map を得る。
IGマップは「各ピクセルはどのくらい情報的か?」というクラスに依存しない回答を提供し、PMIマップは「各ピクセルが特定のクラスをサポートするか?」というクラス固有の説明を提供する。
提案手法は,既存の手法と比較して,定量的な計量による属性マップの正確性を向上させる。
また,提案手法を用いて画像ネット分類器の詳細な解析を行い,そのコードをオンラインで公開する。
関連論文リスト
- Taming CLIP for Fine-grained and Structured Visual Understanding of Museum Exhibits [59.66134971408414]
博物館展示の微細で構造化された理解にCLIPを適用することを目的としている。
私たちのデータセットは、パブリックドメインで最初のものです。
提案手法(MUZE)は,変換器を用いた解析ネットワーク(parseNet)を用いて,CLIPのイメージ埋め込みを表構造にマッピングする方法を学習する。
論文 参考訳(メタデータ) (2024-09-03T08:13:06Z) - Accurate Explanation Model for Image Classifiers using Class Association Embedding [5.378105759529487]
本稿では,グローバルな知識とローカルな知識の利点を組み合わせた生成的説明モデルを提案する。
クラスアソシエーション埋め込み(CAE)は、各サンプルを1組のクラス関連コードと個別コードにエンコードする。
クラス関連特徴を個々の特徴から効率的に分離するビルディングブロック・コヒーレンシー特徴抽出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-12T07:41:00Z) - Interpretable Network Visualizations: A Human-in-the-Loop Approach for Post-hoc Explainability of CNN-based Image Classification [5.087579454836169]
State-of-the-art explainability Method は、特定のクラスが特定された場所を示すために、サリエンシマップを生成する。
本稿では,畳み込みニューラルネットワークの機能抽出プロセス全体を説明するポストホック手法を提案する。
また,複数の画像にラベルを集約することで,グローバルな説明を生成する手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T09:21:35Z) - DXAI: Explaining Classification by Image Decomposition [4.013156524547072]
我々は、分解に基づく説明可能なAI(DXAI)を用いてニューラルネットワークの分類を可視化する新しい方法を提案する。
本手法は,説明熱マップを提供する代わりに,画像のクラス非依存部分とクラス固有部分への分解を行う。
論文 参考訳(メタデータ) (2023-12-30T20:52:20Z) - Feature Activation Map: Visual Explanation of Deep Learning Models for
Image Classification [17.373054348176932]
本研究では,機能活性化マップ (FAM) と呼ばれるポストホック解釈ツールを提案する。
FAMは、FC層を分類器として使用せずにディープラーニングモデルを解釈できる。
提案したFAMアルゴリズムの有効性を実証するために,10種類の深層学習モデルを用いて,少数ショット画像分類,コントラスト学習画像分類,画像検索タスクを行った。
論文 参考訳(メタデータ) (2023-07-11T05:33:46Z) - Text Descriptions are Compressive and Invariant Representations for
Visual Learning [63.3464863723631]
本研究では,クラスごとの複数の視覚的特徴に対する人間の理解に則って,頑健な数ショット学習環境では魅力的な性能が得られることを示す。
特に,SLR-AVD (Sparse Logistic Regression using Augmented Visual Descriptors) という新しい手法を導入する。
このメソッドはまず、まず大きな言語モデル(LLM)を介して各クラスの複数の視覚的記述を自動生成し、次にVLMを使用してこれらの記述を各画像の視覚的特徴埋め込みに変換し、最後に、これらの特徴の関連するサブセットを選択するためにスパースロジスティック回帰を使用する。
論文 参考訳(メタデータ) (2023-07-10T03:06:45Z) - Measuring the Interpretability of Unsupervised Representations via
Quantized Reverse Probing [97.70862116338554]
本稿では,自己教師付き表現の解釈可能性の測定問題について検討する。
我々は、後者を、表現と手動でラベル付けされた概念の空間の間の相互情報を推定するものとして定式化する。
提案手法は,多人数の自己教師付き表現の評価に利用し,解釈可能性による評価を行う。
論文 参考訳(メタデータ) (2022-09-07T16:18:50Z) - Learning Implicit Feature Alignment Function for Semantic Segmentation [51.36809814890326]
Implicit Feature Alignment Function (IFA)は、暗黙の神経表現の急速に拡大するトピックにインスパイアされている。
IFAは機能マップを異なるレベルで暗黙的に整列し、任意の解像度でセグメンテーションマップを生成することができることを示す。
提案手法は,様々なアーキテクチャの改善と組み合わせて,一般的なベンチマークにおける最先端の精度のトレードオフを実現する。
論文 参考訳(メタデータ) (2022-06-17T09:40:14Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Isometric Propagation Network for Generalized Zero-shot Learning [72.02404519815663]
一般的な戦略は、クラス属性の意味空間と、見たクラスとそのデータに基づいて画像の視覚空間とのマッピングを学ぶことである。
本稿では,各空間内のクラス間の関係を強化し,2つの空間におけるクラス依存性を整合させるIsometric propagation Network (IPN)を提案する。
IPNは3つの人気のあるゼロショット学習ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-02-03T12:45:38Z) - One Explanation is Not Enough: Structured Attention Graphs for Image
Classification [30.640374946654806]
画像に対する注目マップの集合をコンパクトに表現する構造化された注意グラフ(SAG)を導入する。
本稿では,SAG の計算手法と SAG の可視化手法を提案する。
論文 参考訳(メタデータ) (2020-11-13T02:51:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。