論文の概要: Cross-Model Consensus of Explanations and Beyond for Image
Classification Models: An Empirical Study
- arxiv url: http://arxiv.org/abs/2109.00707v1
- Date: Thu, 2 Sep 2021 04:50:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-03 13:49:41.789586
- Title: Cross-Model Consensus of Explanations and Beyond for Image
Classification Models: An Empirical Study
- Title(参考訳): 画像分類モデルにおける説明と超越のクロスモデル合意--実証的研究
- Authors: Xuhong Li, Haoyi Xiong, Siyu Huang, Shilei Ji, Dejing Dou
- Abstract要約: さまざまな機能セットの中で、いくつかの共通機能は、ほとんどのモデルで使用されるかもしれない。
本稿では、共通特徴を捉えるための説明のモデル間コンセンサスを提案する。
5つのデータセット/タスクで80以上のモデルを使用して、広範な実験を行います。
- 参考スコア(独自算出の注目度): 34.672716006357675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing interpretation algorithms have found that, even deep models make the
same and right predictions on the same image, they might rely on different sets
of input features for classification. However, among these sets of features,
some common features might be used by the majority of models. In this paper, we
are wondering what are the common features used by various models for
classification and whether the models with better performance may favor those
common features. For this purpose, our works uses an interpretation algorithm
to attribute the importance of features (e.g., pixels or superpixels) as
explanations, and proposes the cross-model consensus of explanations to capture
the common features. Specifically, we first prepare a set of deep models as a
committee, then deduce the explanation for every model, and obtain the
consensus of explanations across the entire committee through voting. With the
cross-model consensus of explanations, we conduct extensive experiments using
80+ models on 5 datasets/tasks. We find three interesting phenomena as follows:
(1) the consensus obtained from image classification models is aligned with the
ground truth of semantic segmentation; (2) we measure the similarity of the
explanation result of each model in the committee to the consensus (namely
consensus score), and find positive correlations between the consensus score
and model performance; and (3) the consensus score coincidentally correlates to
the interpretability.
- Abstract(参考訳): 既存の解釈アルゴリズムでは、深いモデルでさえ同じ画像上で同じと正しい予測をするが、分類のために異なる入力特徴セットに依存する可能性がある。
しかし、これらの機能セットのうち、いくつかの共通機能は、多くのモデルで使用される可能性がある。
本稿では,様々なモデルが分類に使用する共通機能と,優れた性能を持つモデルがそれらの共通機能を好むかどうかを疑問視する。
この目的のために,本研究では,特徴(画素やスーパーピクセルなど)の重要性を説明として解釈アルゴリズムを用い,共通特徴を捉えるための説明のクロスモデルコンセンサスを提案する。
具体的には、まず委員会として深層モデルのセットを準備し、次にすべてのモデルの説明を推論し、投票を通じて委員会全体の説明の合意を得る。
5つのデータセット/タスク上で80以上のモデルを用いた広範囲な実験を行う。
1) 画像分類モデルから得られたコンセンサスは, 意味セグメンテーションの基礎的真理と一致している, (2) 委員会における各モデルの説明結果とコンセンサス(すなわちコンセンサススコア)との類似度を測定し, コンセンサススコアとモデルパフォーマンスの正の相関を見出す, (3) コンセンサススコアは解釈可能性と一致している。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Fixing confirmation bias in feature attribution methods via semantic
match [4.733072355085082]
モデル上の仮説が特徴属性によって確認されるかどうかを検証するためには,構造的アプローチが必要である,と我々は主張する。
これは、人間の概念と(サブシンボリックな)説明の「セマンティックマッチ」と呼ばれるものです。
論文 参考訳(メタデータ) (2023-07-03T09:50:08Z) - Investigating Failures to Generalize for Coreference Resolution Models [93.95952368743919]
本稿では,現在のコア参照解決モデルの誤差が,データセット間での運用方法の相違にどの程度関連しているかを検討する。
具体的には、モデル性能をいくつかのタイプのコア参照に対応するカテゴリに分け、分解する。
このブレークダウンは、異なるコア参照タイプをまたいだ一般化能力において、最先端モデルがどのように異なるかを調べるのに役立ちます。
論文 参考訳(メタデータ) (2023-03-16T05:32:02Z) - IMACS: Image Model Attribution Comparison Summaries [16.80986701058596]
我々は,勾配に基づくモデル属性とアグリゲーションと可視化技術を組み合わせたIMACSを提案する。
IMACSは評価データセットから適切な入力特徴を抽出し、類似性に基づいてクラスタ化し、類似した入力特徴に対するモデル属性の違いを可視化する。
本稿では,衛星画像上で訓練した2つのモデル間の領域シフトによる行動差を明らかにする方法を示す。
論文 参考訳(メタデータ) (2022-01-26T21:35:14Z) - Partial Order in Chaos: Consensus on Feature Attributions in the
Rashomon Set [50.67431815647126]
ポストホックなグローバル/ローカルな特徴属性法は、機械学習モデルを理解するために徐々に採用されている。
この手法により局所的・言語的特徴の半順序が生じることを示す。
これらの部分的な順序に現れる特徴間の関係は、既存のアプローチによって提供されたランクにも当てはまることを示す。
論文 参考訳(メタデータ) (2021-10-26T02:53:14Z) - Exploring Strategies for Generalizable Commonsense Reasoning with
Pre-trained Models [62.28551903638434]
モデルの一般化と精度に及ぼす3つの異なる適応法の影響を計測する。
2つのモデルを用いた実験では、微調整はタスクの内容と構造の両方を学習することで最もうまく機能するが、過度に適合し、新しい答えへの限定的な一般化に苦しむ。
我々は、プレフィックスチューニングのような代替適応手法が同等の精度を持つのを観察するが、解を見落とさずに一般化し、対数分割に対してより堅牢である。
論文 参考訳(メタデータ) (2021-09-07T03:13:06Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Towards Visually Explaining Similarity Models [29.704524987493766]
本稿では,画像類似度予測のための勾配に基づく視覚的注意を生成する手法を提案する。
学習した機能の埋め込みにのみ依存することにより、我々のアプローチがCNNベースの類似性アーキテクチャのあらゆる種類に適用可能であることを示す。
得られたアテンションマップは、単に解釈可能性だけでなく、新たなトレーニング可能な制約でモデル学習プロセス自体に注入可能であることを示す。
論文 参考訳(メタデータ) (2020-08-13T17:47:41Z) - Explainable Image Classification with Evidence Counterfactual [0.0]
画像分類のためのモデルに依存しないインスタンスレベルの説明法としてSEDCを導入する。
ある画像に対して、SEDCは、削除された場合、分類を変更する小さなセグメントの集合を検索する。
我々は,SEDC(-T) と LRP, LIME, SHAP などの特徴重要度評価手法を比較し, 上記の重要度ランキング問題にどう対処するかを述べる。
論文 参考訳(メタデータ) (2020-04-16T08:02:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。