論文の概要: GANMEX: One-vs-One Attributions Guided by GAN-based Counterfactual
Explanation Baselines
- arxiv url: http://arxiv.org/abs/2011.06015v4
- Date: Wed, 23 Jun 2021 11:28:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 00:33:58.510765
- Title: GANMEX: One-vs-One Attributions Guided by GAN-based Counterfactual
Explanation Baselines
- Title(参考訳): GANMEX: 1-vs-one属性をGANベースの対実説明ベースラインでガイドする
- Authors: Sheng-Min Shih, Pin-Ju Tien, Zohar Karnin
- Abstract要約: 我々はGAN(Generative Adversarial Networks)を応用した新しいアプローチであるGANMEX(GAN-based Model Explainability)を提案する。
提案手法は, 対象クラスに最も近い実写的なサンプルとして, 対物的ベースラインを効果的に選択することで, 真の1-vs-1説明を提供する属性法を実現する。
- 参考スコア(独自算出の注目度): 11.816942730023886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attribution methods have been shown as promising approaches for identifying
key features that led to learned model predictions. While most existing
attribution methods rely on a baseline input for performing feature
perturbations, limited research has been conducted to address the baseline
selection issues. Poor choices of baselines limit the ability of one-vs-one
(1-vs-1) explanations for multi-class classifiers, which means the attribution
methods were not able to explain why an input belongs to its original class but
not the other specified target class. 1-vs-1 explanation is crucial when
certain classes are more similar than others, e.g. two bird types among
multiple animals, by focusing on key differentiating features rather than
shared features across classes. In this paper, we present GAN-based Model
EXplainability (GANMEX), a novel approach applying Generative Adversarial
Networks (GAN) by incorporating the to-be-explained classifier as part of the
adversarial networks. Our approach effectively selects the counterfactual
baseline as the closest realistic sample belong to the target class, which
allows attribution methods to provide true 1-vs-1 explanations. We showed that
GANMEX baselines improved the saliency maps and led to stronger performance on
perturbation-based evaluation metrics over the existing baselines. Existing
attribution results are known for being insensitive to model randomization, and
we demonstrated that GANMEX baselines led to better outcome under the cascading
randomization of the model.
- Abstract(参考訳): 帰属法は学習モデル予測に繋がる重要な特徴を特定するための有望な手法として示されてきた。
既存の帰属法の多くは特徴摂動を行うためのベースライン入力に依存しているが、ベースライン選択問題に対処するための限定的な研究がなされている。
ベースラインの貧弱な選択は、マルチクラス分類器に対する1-vs-one (1-vs-1)説明の能力を制限する。
1-vs-1の説明は、あるクラスが他のクラスと類似している場合、例えば、複数の動物の間での2種類の鳥のタイプは、クラス間での共有機能よりも重要な識別機能に焦点を当てることによって重要である。
本稿では,GAN(Generative Adversarial Networks)を用いた新しい手法であるGANMEX(GAN-based Model Explainability)を提案する。
提案手法は, 対象クラスに最も近い実写的なサンプルとして, 対物的ベースラインを効果的に選択することで, 真の1-vs-1説明を提供する属性法を実現する。
我々は,GANMEXベースラインがサリエンシマップを改善し,既存のベースラインよりも摂動に基づく評価指標の性能が向上したことを示した。
既存の帰属結果はモデルランダム化に敏感であることが知られており、GANMEXベースラインがモデルのカスケードランダム化の下でより良い結果をもたらすことを示した。
関連論文リスト
- Covariance-based Space Regularization for Few-shot Class Incremental Learning [25.435192867105552]
FSCIL(Few-shot Class Incremental Learning)では,ラベル付きデータに制限のあるクラスを継続的に学習する必要がある。
インクリメンタルセッションにおける限られたデータのため、モデルは新しいクラスを過度に適合させ、ベースクラスの破滅的な忘れを苦しむ傾向にある。
最近の進歩は、基本クラス分布を制約し、新しいクラスの識別的表現を学習するプロトタイプベースのアプローチに頼っている。
論文 参考訳(メタデータ) (2024-11-02T08:03:04Z) - LLM meets Vision-Language Models for Zero-Shot One-Class Classification [4.094697851983375]
ゼロショットワンクラス視覚分類の問題を考える。
本稿では、視覚的に混乱するオブジェクトに対して、まず大きな言語モデルをクエリする2段階のソリューションを提案する。
我々は,そのラベルのみを用いて,あるカテゴリと他のセマンティック関連カテゴリを識別する能力を初めて示す。
論文 参考訳(メタデータ) (2024-03-31T12:48:07Z) - Less is More: Fewer Interpretable Region via Submodular Subset Selection [54.07758302264416]
本稿では,上述の画像帰属問題を部分モジュラ部分選択問題として再モデル化する。
我々は、より正確な小さな解釈領域を発見するために、新しい部分モジュラー関数を構築する。
正しく予測されたサンプルに対しては,HSIC-Attributionに対する平均4.9%と2.5%の利得で,Deletion and Insertionスコアを改善した。
論文 参考訳(メタデータ) (2024-02-14T13:30:02Z) - A Hard-to-Beat Baseline for Training-free CLIP-based Adaptation [121.0693322732454]
対照的に、CLIP(Contrastive Language- Image Pretraining)はその目覚ましいゼロショット能力で人気を集めている。
近年の研究では、下流タスクにおけるCLIPの性能を高めるための効率的な微調整手法の開発に焦点が当てられている。
従来のアルゴリズムであるガウス判別分析(GDA)を再検討し,CLIPの下流分類に適用する。
論文 参考訳(メタデータ) (2024-02-06T15:45:27Z) - CLIMAX: An exploration of Classifier-Based Contrastive Explanations [5.381004207943597]
我々は,ブラックボックスの分類を正当化する対照的な説明を提供する,ポストホックモデルXAI手法を提案する。
CLIMAXと呼ばれる手法は,局所的な分類法に基づく。
LIME, BayLIME, SLIMEなどのベースラインと比較して, 一貫性が向上することを示す。
論文 参考訳(メタデータ) (2023-07-02T22:52:58Z) - Harmonizing Base and Novel Classes: A Class-Contrastive Approach for
Generalized Few-Shot Segmentation [78.74340676536441]
本稿では,プロトタイプの更新を規制し,プロトタイプ間の距離を広くするために,クラス間のコントラスト損失とクラス関係損失を提案する。
提案手法は,PASCAL VOC および MS COCO データセット上での一般化された小ショットセグメンテーションタスクに対して,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-24T00:30:25Z) - A Gating Model for Bias Calibration in Generalized Zero-shot Learning [18.32369721322249]
汎用ゼロショット学習(GZSL)は,補助情報のみを用いることで,見つからないクラスデータに一般化できるモデルを訓練することを目的とする。
GZSLの主な課題の1つは、トレーニング中に利用可能なクラスデータのみに過度に適合することに起因する、見かけたクラスに対するバイアス付きモデル予測である。
GZSLのための2ストリームオートエンコーダに基づくゲーティングモデルを提案する。
論文 参考訳(メタデータ) (2022-03-08T16:41:06Z) - Exploring Category-correlated Feature for Few-shot Image Classification [27.13708881431794]
本稿では,従来の知識として,新しいクラスとベースクラスのカテゴリ相関を探索し,シンプルで効果的な特徴補正手法を提案する。
提案手法は, 広く使用されている3つのベンチマークにおいて, 一定の性能向上が得られる。
論文 参考訳(メタデータ) (2021-12-14T08:25:24Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。