論文の概要: EDDA: Explanation-driven Data Augmentation to Improve Model and
Explanation Alignment
- arxiv url: http://arxiv.org/abs/2105.14162v1
- Date: Sat, 29 May 2021 00:42:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 17:53:05.780136
- Title: EDDA: Explanation-driven Data Augmentation to Improve Model and
Explanation Alignment
- Title(参考訳): EDDA: モデルと説明アライメントを改善するための説明駆動データ拡張
- Authors: Ruiwen Li (co-first author), Zhibo Zhang (co-first author), Jiani Li,
Scott Sanner, Jongseong Jang, Yeonjeong Jeong, Dongsub Shim
- Abstract要約: モデル予測と説明手法の整合性を改善する手法を模索する。
我々は,新しい説明駆動型データ拡張(EDDA)手法によりこれを実現した。
これは、モデル予測のために正当領域を除外する単純な動機付け原理に基づいており、モデル予測におけるモデルの信頼性を低下させる。
- 参考スコア(独自算出の注目度): 12.729179495550557
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent years have seen the introduction of a range of methods for post-hoc
explainability of image classifier predictions. However, these post-hoc
explanations may not always align perfectly with classifier predictions, which
poses a significant challenge when attempting to debug models based on such
explanations. To this end, we seek a methodology that can improve alignment
between model predictions and explanation method that is both agnostic to the
model and explanation classes and which does not require ground truth
explanations. We achieve this through a novel explanation-driven data
augmentation (EDDA) method that augments the training data with occlusions of
existing data stemming from model-explanations; this is based on the simple
motivating principle that occluding salient regions for the model prediction
should decrease the model confidence in the prediction, while occluding
non-salient regions should not change the prediction -- if the model and
explainer are aligned. To verify that this augmentation method improves model
and explainer alignment, we evaluate the methodology on a variety of datasets,
image classification models, and explanation methods. We verify in all cases
that our explanation-driven data augmentation method improves alignment of the
model and explanation in comparison to no data augmentation and non-explanation
driven data augmentation methods. In conclusion, this approach provides a novel
model- and explainer-agnostic methodology for improving alignment between model
predictions and explanations, which we see as a critical step forward for
practical deployment and debugging of image classification models.
- Abstract(参考訳): 近年,画像分類器予測のホット後の説明可能性に関する様々な手法が導入されている。
しかし、これらのポストホックな説明は、必ずしも分類器の予測と完全に一致しないかもしれない。
そこで本研究では,モデル予測の整合性を改善する手法と,モデルと説明クラスに非依存であり,真理的な説明を必要としない説明手法を提案する。
本手法は,モデルと説明者が整列している場合,非正則領域は予測を変えるべきではないのに対して,モデル予測のための正則領域は予測におけるモデルの信頼性を低下させるべきだという単純な動機付け原理に基づく。
本手法がモデルアライメントと説明器アライメントを改善することを確認するため,様々なデータセット,画像分類モデル,説明手法について評価を行う。
説明駆動型データ拡張法が,データ拡張法や非説明駆動型データ拡張法と比較して,モデルと説明のアライメントを改善することを検証した。
結論として,このアプローチは,モデル予測と説明の整合性を改善するための,新しいモデル非依存な手法を提供する。
関連論文リスト
- Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Training Deep Models to be Explained with Fewer Examples [40.58343220792933]
我々は、サンプル数を減らすために、スパース正規化器と同時に予測モデルと説明モデルを訓練する。
いくつかのデータセットを用いた実験により,提案手法は予測性能を維持しながら忠実性を向上させることを示した。
論文 参考訳(メタデータ) (2021-12-07T05:39:21Z) - Shapley variable importance clouds for interpretable machine learning [2.830197032154301]
本報告では,最終モデルのSHAP解析におけるバイアス評価を回避するため,優れたモデルにまたがる情報をプールするShapley変数重要クラウドを提案する。
刑事司法データと電子カルテデータを用いたドン・アンド・ルーディン法とを比較検討した。
論文 参考訳(メタデータ) (2021-10-06T03:41:04Z) - Information-theoretic Evolution of Model Agnostic Global Explanations [10.921146104622972]
本論文では,数値・分類データに基づく分類モデルの挙動をグローバルに説明するためのルールを導出する新しいモデル非依存アプローチを提案する。
当社のアプローチは、主要なデジタルマーケティングスイートに展開されています。
論文 参考訳(メタデータ) (2021-05-14T16:52:16Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Incorporating Causal Graphical Prior Knowledge into Predictive Modeling
via Simple Data Augmentation [92.96204497841032]
因果グラフ(CG)は、データ分散の背後にあるデータ生成プロセスの知識のコンパクトな表現である。
本研究では,条件付き独立性(CI)関係の事前知識を活用可能なモデルに依存しないデータ拡張手法を提案する。
本手法は,小データシステムにおける予測精度の向上に有効であることを実験的に示した。
論文 参考訳(メタデータ) (2021-02-27T06:13:59Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Explanation-Guided Training for Cross-Domain Few-Shot Classification [96.12873073444091]
クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
論文 参考訳(メタデータ) (2020-07-17T07:28:08Z) - An interpretable neural network model through piecewise linear
approximation [7.196650216279683]
本稿では,線形成分と非線形成分を組み合わせたハイブリッド解釈モデルを提案する。
第1のコンポーネントは、モデルの表現性を高めるために、一括線形近似による明示的な特徴貢献を記述する。
他のコンポーネントは多層パーセプトロンを使用して特徴相互作用と暗黙の非線形性をキャプチャし、予測性能を向上させる。
論文 参考訳(メタデータ) (2020-01-20T14:32:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。