論文の概要: DXAI: Explaining Classification by Image Decomposition
- arxiv url: http://arxiv.org/abs/2401.00320v1
- Date: Sat, 30 Dec 2023 20:52:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 17:53:53.507994
- Title: DXAI: Explaining Classification by Image Decomposition
- Title(参考訳): DXAI:画像分解による分類の説明
- Authors: Elnatan Kadar, Guy Gilboa
- Abstract要約: 我々は、分解に基づく説明可能なAI(DXAI)を用いてニューラルネットワークの分類を可視化する新しい方法を提案する。
本手法は,説明熱マップを提供する代わりに,画像のクラス非依存部分とクラス固有部分への分解を行う。
- 参考スコア(独自算出の注目度): 4.741012804505561
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a new way to explain and to visualize neural network
classification through a decomposition-based explainable AI (DXAI). Instead of
providing an explanation heatmap, our method yields a decomposition of the
image into class-agnostic and class-distinct parts, with respect to the data
and chosen classifier. Following a fundamental signal processing paradigm of
analysis and synthesis, the original image is the sum of the decomposed parts.
We thus obtain a radically different way of explaining classification. The
class-agnostic part ideally is composed of all image features which do not
posses class information, where the class-distinct part is its complementary.
This new visualization can be more helpful and informative in certain
scenarios, especially when the attributes are dense, global and additive in
nature, for instance, when colors or textures are essential for class
distinction. Code is available at https://github.com/dxai2024/dxai.
- Abstract(参考訳): 本稿では,分解型説明可能ai(dxai)を用いて,ニューラルネットワークの分類を可視化する新しい手法を提案する。
提案手法は, 説明ヒートマップを提供する代わりに, データや選択した分類器に関して, 画像のクラス別およびクラス別部分への分解を行う。
分析と合成の基本的な信号処理パラダイムに従って、元の画像は分解された部品の合計である。
したがって、分類を説明する方法が根本的に異なる。
クラス識別部は、クラス識別部が相補的なクラス情報を持たないすべての画像特徴から理想的に構成される。
この新たな視覚化は、特に属性が密度が高く、グローバルで、自然界において、例えば、クラス区別に色やテクスチャが不可欠である場合において、特定のシナリオにおいてより有用で有益なものになる。
コードはhttps://github.com/dxai2024/dxaiで入手できる。
関連論文リスト
- Accurate Explanation Model for Image Classifiers using Class Association Embedding [5.378105759529487]
本稿では,グローバルな知識とローカルな知識の利点を組み合わせた生成的説明モデルを提案する。
クラスアソシエーション埋め込み(CAE)は、各サンプルを1組のクラス関連コードと個別コードにエンコードする。
クラス関連特徴を個々の特徴から効率的に分離するビルディングブロック・コヒーレンシー特徴抽出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-12T07:41:00Z) - Text Descriptions are Compressive and Invariant Representations for
Visual Learning [63.3464863723631]
本研究では,クラスごとの複数の視覚的特徴に対する人間の理解に則って,頑健な数ショット学習環境では魅力的な性能が得られることを示す。
特に,SLR-AVD (Sparse Logistic Regression using Augmented Visual Descriptors) という新しい手法を導入する。
このメソッドはまず、まず大きな言語モデル(LLM)を介して各クラスの複数の視覚的記述を自動生成し、次にVLMを使用してこれらの記述を各画像の視覚的特徴埋め込みに変換し、最後に、これらの特徴の関連するサブセットを選択するためにスパースロジスティック回帰を使用する。
論文 参考訳(メタデータ) (2023-07-10T03:06:45Z) - Why do CNNs excel at feature extraction? A mathematical explanation [53.807657273043446]
実世界のデータセットに似た画像を生成するのに使用できる特徴抽出に基づく画像分類の新しいモデルを提案する。
本研究では,特徴の存在を検知する一方向線形関数を構築し,畳み込みネットワークで実現可能であることを示す。
論文 参考訳(メタデータ) (2023-07-03T10:41:34Z) - Additive Class Distinction Maps using Branched-GANs [7.176107039687231]
2種類の画像の区別の正確なマップを作成するために,新しいモデル,訓練手順,アーキテクチャを提案する。
提案アーキテクチャは,複数の生成ネットワーク(分岐GAN)の総和を出力とする画像分解に基づいている。
このアプローチは、各クラスのユニークな特性を明確に、正確に、解釈可能な可視化を可能にする。
論文 参考訳(メタデータ) (2023-05-04T15:09:54Z) - Extracting Semantic Knowledge from GANs with Unsupervised Learning [65.32631025780631]
GAN(Generative Adversarial Networks)は、特徴写像のセマンティクスを線形に分離可能な形でエンコードする。
本稿では,線形分離性を利用してGANの特徴をクラスタリングする新しいクラスタリングアルゴリズムKLiSHを提案する。
KLiSHは、さまざまなオブジェクトのデータセットに基づいてトレーニングされたGANのきめ細かいセマンティクスの抽出に成功している。
論文 参考訳(メタデータ) (2022-11-30T03:18:16Z) - Visual Recognition with Deep Nearest Centroids [57.35144702563746]
我々は、概念的にエレガントで驚くほど効果的な大規模視覚認識ネットワークである深部セントロイド(DNC)を考案した。
パラメトリックと比較すると、DNCは画像分類(CIFAR-10, ImageNet)に優れ、画像認識(ADE20K, Cityscapes)を大いに起動する。
論文 参考訳(メタデータ) (2022-09-15T15:47:31Z) - Deep ensembles in bioimage segmentation [74.01883650587321]
本研究では,畳み込みニューラルネットワーク(CNN)のアンサンブルを提案する。
アンサンブル法では、多くの異なるモデルが訓練され、分類に使用され、アンサンブルは単一分類器の出力を集約する。
提案するアンサンブルは,DeepLabV3+とHarDNet環境を用いて,異なるバックボーンネットワークを組み合わせることで実現されている。
論文 参考訳(メタデータ) (2021-12-24T05:54:21Z) - Half-Real Half-Fake Distillation for Class-Incremental Semantic
Segmentation [84.1985497426083]
畳み込みニューラルネットワークは漸進的な学習に不適である。
新しいクラスは利用できるが、初期トレーニングデータは保持されない。
訓練されたセグメンテーションネットワークを「反転」して、ランダムノイズから始まる入力画像の合成を試みる。
論文 参考訳(メタデータ) (2021-04-02T03:47:16Z) - Synthesize-It-Classifier: Learning a Generative Classifier through
RecurrentSelf-analysis [9.029985847202667]
本研究では,高分解能,フォトリアリスティック,多彩な画像を大規模に合成することにより,画像分類ネットワークの生成能力を示す。
Synthesize-It-Classifier(STIC)と呼ばれる全体的な方法論は、データ分布の密度を推定するために明示的なジェネレータネットワークを必要としません。
ImageNetデータセット上で合成された画像の反復描画を示すAttentive-STICネットワークを実証する。
論文 参考訳(メタデータ) (2021-03-26T02:00:29Z) - Understanding invariance via feedforward inversion of discriminatively
trained classifiers [30.23199531528357]
過去の研究では、出力ログに余計な視覚的詳細が残っていることが判明した。
極めて高い忠実度を再現するフィードフォワードインバージョンモデルを開発する。
私たちのアプローチはBigGANをベースにしており、1ホットクラスのラベルの代わりにロジットのコンディショニングを行います。
論文 参考訳(メタデータ) (2021-03-15T17:56:06Z) - A causal view of compositional zero-shot recognition [42.63916938252048]
人々は既知のコンポーネントの新しい組み合わせである新しい視覚カテゴリーを容易に認識する。
この構成一般化能力は、視覚や言語といった現実世界の領域での学習に不可欠である。
ここでは、因果的考えに基づく構成的一般化のアプローチについて述べる。
論文 参考訳(メタデータ) (2020-06-25T17:51:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。