論文の概要: Reproducibility review of "Why Not Other Classes": Towards Class-Contrastive Back-Propagation Explanations
- arxiv url: http://arxiv.org/abs/2501.11096v1
- Date: Sun, 19 Jan 2025 16:14:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:24:27.945443
- Title: Reproducibility review of "Why Not Other Classes": Towards Class-Contrastive Back-Propagation Explanations
- Title(参考訳): なぜ他のクラスではないのか--クラスコントラストのバックプロパゲーションの解説に向けて
- Authors: Arvid Eriksson, Anton Israelsson, Mattias Kallhauge,
- Abstract要約: 「なぜ他のクラスではないのか?」は、あるクラスが他のクラスの上に選択される理由を対照的に説明する方法を提供する。
本手法は,従来よりもソフトマックス層後からバックプロパゲーションに基づく説明法を用いている。
本論文は,提案手法の詳細の欠如や誤式などの問題に悩まされていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: "Why Not Other Classes?": Towards Class-Contrastive Back-Propagation Explanations (Wang & Wang, 2022) provides a method for contrastively explaining why a certain class in a neural network image classifier is chosen above others. This method consists of using back-propagation-based explanation methods from after the softmax layer rather than before. Our work consists of reproducing the work in the original paper. We also provide extensions to the paper by evaluating the method on XGradCAM, FullGrad, and Vision Transformers to evaluate its generalization capabilities. The reproductions show similar results as the original paper, with the only difference being the visualization of heatmaps which could not be reproduced to look similar. The generalization seems to be generally good, with implementations working for Vision Transformers and alternative back-propagation methods. We also show that the original paper suffers from issues such as a lack of detail in the method and an erroneous equation which makes reproducibility difficult. To remedy this we provide an open-source repository containing all code used for this project.
- Abstract(参考訳): Wang & Wang, 2022)は、ニューラルネットワーク画像分類器において、あるクラスが他のクラスよりも上位に選択されている理由を対照的に説明する方法を提供している。
本手法は,従来よりもソフトマックス層後からバックプロパゲーションに基づく説明法を用いている。
私たちの作品は、オリジナルの論文でその作品を再現することで構成されています。
また,XGradCAM,FullGrad,Vision Transformersの手法を拡張して,その一般化能力を評価する。
再現はオリジナルの論文と類似した結果を示しており、唯一の違いは、再現できない熱マップの可視化である。
一般化は一般的には良好で、Vision Transformerと代替のバックプロパゲーションメソッドで実装されている。
また,本論文は,再現性を困難にしている手法の詳細の欠如や誤式といった問題に悩まされていることも示している。
これを改善するために、このプロジェクトで使用されるすべてのコードを含むオープンソースリポジトリを提供しています。
関連論文リスト
- Accurate Explanation Model for Image Classifiers using Class Association Embedding [5.378105759529487]
本稿では,グローバルな知識とローカルな知識の利点を組み合わせた生成的説明モデルを提案する。
クラスアソシエーション埋め込み(CAE)は、各サンプルを1組のクラス関連コードと個別コードにエンコードする。
クラス関連特徴を個々の特徴から効率的に分離するビルディングブロック・コヒーレンシー特徴抽出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-12T07:41:00Z) - A Study of Forward-Forward Algorithm for Self-Supervised Learning [65.268245109828]
本研究では,自己指導型表現学習におけるフォワードとバックプロパゲーションのパフォーマンスについて検討する。
我々の主な発見は、フォワードフォワードアルゴリズムが(自己教師付き)トレーニング中にバックプロパゲーションに相容れないように機能するのに対し、転送性能は研究されたすべての設定において著しく遅れていることである。
論文 参考訳(メタデータ) (2023-09-21T10:14:53Z) - DiffusePast: Diffusion-based Generative Replay for Class Incremental
Semantic Segmentation [73.54038780856554]
クラスインクリメンタルセマンティック(CISS)は、新たに追加されたクラスを漸進的に学習することで、従来のセグメンテーションタスクを拡張する。
これは、事前訓練されたGANから生成された古いクラスサンプルを再生するものである。
そこで我々はDiffusePastを提案する。DiffusePastは拡散型生成再生モジュールを特徴とする新しいフレームワークで、異なる命令でより信頼性の高いマスクで意味論的に正確な画像を生成する。
論文 参考訳(メタデータ) (2023-08-02T13:13:18Z) - Two-Stage Holistic and Contrastive Explanation of Image Classification [16.303752364521454]
全体的なアウトプットの説明は、人間のユーザがモデル行動の全体的な理解を得るのに役立つ。
画像分類のためのコントラスト的全出力説明法(CWOX)を提案する。
論文 参考訳(メタデータ) (2023-06-10T04:22:13Z) - Physically Disentangled Representations [13.234029150635658]
逆レンダリングは、監督なしで、物理的に歪んだシーンの表現を学ぶために使用することができる。
本稿では,下流クラスタリング,線形分類,セグメンテーションタスクの精度を向上させる学習表現における逆レンダリングの有用性を示す。
論文 参考訳(メタデータ) (2022-04-11T17:36:40Z) - Transductive Learning for Unsupervised Text Style Transfer [60.65782243927698]
教師なしスタイル転送モデルは、主に帰納的学習アプローチに基づいている。
本稿では,検索に基づく文脈認識スタイルの表現に基づく新しいトランスダクティブ学習手法を提案する。
論文 参考訳(メタデータ) (2021-09-16T08:57:20Z) - Memory-Free Generative Replay For Class-Incremental Learning [32.39857105540859]
本研究では,メモリフリーな生成再生戦略を提案し,クラス特性の微粒化を抑える。
本手法は,従来のクラスを識別しやすくするために有効であることが証明された事前正規化に基づく手法によって最もよく補完される。
論文 参考訳(メタデータ) (2021-09-01T12:19:54Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z) - There and Back Again: Revisiting Backpropagation Saliency Methods [87.40330595283969]
正当性法は,各入力サンプルの重要度マップを作成することによって,モデルの予測を説明する。
このような手法の一般的なクラスは、信号のバックプロパゲートと結果の勾配の分析に基づいている。
本稿では,そのような手法を統一可能な単一のフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:58:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。