論文の概要: Training Deep Models to be Explained with Fewer Examples
- arxiv url: http://arxiv.org/abs/2112.03508v1
- Date: Tue, 7 Dec 2021 05:39:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 13:13:22.631398
- Title: Training Deep Models to be Explained with Fewer Examples
- Title(参考訳): 少ない例で説明する深層モデルのトレーニング
- Authors: Tomoharu Iwata and Yuya Yoshikawa
- Abstract要約: 我々は、サンプル数を減らすために、スパース正規化器と同時に予測モデルと説明モデルを訓練する。
いくつかのデータセットを用いた実験により,提案手法は予測性能を維持しながら忠実性を向上させることを示した。
- 参考スコア(独自算出の注目度): 40.58343220792933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although deep models achieve high predictive performance, it is difficult for
humans to understand the predictions they made. Explainability is important for
real-world applications to justify their reliability. Many example-based
explanation methods have been proposed, such as representer point selection,
where an explanation model defined by a set of training examples is used for
explaining a prediction model. For improving the interpretability, reducing the
number of examples in the explanation model is important. However, the
explanations with fewer examples can be unfaithful since it is difficult to
approximate prediction models well by such example-based explanation models.
The unfaithful explanations mean that the predictions by the explainable model
are different from those by the prediction model. We propose a method for
training deep models such that their predictions are faithfully explained by
explanation models with a small number of examples. We train the prediction and
explanation models simultaneously with a sparse regularizer for reducing the
number of examples. The proposed method can be incorporated into any neural
network-based prediction models. Experiments using several datasets demonstrate
that the proposed method improves faithfulness while keeping the predictive
performance.
- Abstract(参考訳): 深いモデルは高い予測性能を達成するが、人間がその予測を理解することは困難である。
現実のアプリケーションが信頼性を正当化するためには、説明責任が重要です。
多くの例に基づく説明手法が提案されている。例えば、表現点選択では、トレーニング例のセットで定義された説明モデルを予測モデルの説明に用いる。
解釈可能性を向上させるためには,説明モデルの例数を減らすことが重要である。
しかし、そのような例に基づく説明モデルでは予測モデルをうまく近似することは困難であるため、例が少ない説明は不信である。
不誠実な説明は、説明可能なモデルによる予測が予測モデルによって異なることを意味する。
そこで本研究では,いくつかの例で説明モデルによって予測が忠実に説明されるような深層モデルの訓練手法を提案する。
予測モデルと説明モデルをスパース正規化器と共に訓練し,サンプル数を減らす。
提案手法は任意のニューラルネットワークに基づく予測モデルに組み込むことができる。
複数のデータセットを用いた実験により,提案手法が予測性能を維持しつつ忠実性を向上させることを実証した。
関連論文リスト
- Fast Explainability via Feasible Concept Sets Generator [7.011763596804071]
モデルに依存しないアプローチの普遍性とモデル固有のアプローチの効率とのギャップを埋める。
まず、人間の理解可能な概念の集合を通して説明を定義する。
第二に、予測モデルに付随する説明として、最小限の可能な集合生成器を学習できることが示される。
論文 参考訳(メタデータ) (2024-05-29T00:01:40Z) - What Will My Model Forget? Forecasting Forgotten Examples in Language Model Refinement [38.93348195407474]
ワイルドにデプロイされた言語モデルはエラーを起こします。
修正されたエラーインスタンスでモデルを更新することは、破滅的な忘れを引き起こす。
本稿では,事前学習例のソフトマックス前のロジットスコアの変化がオンライン学習例に類似しているという観察に基づいて,部分的に解釈可能な予測モデルを提案する。
論文 参考訳(メタデータ) (2024-02-02T19:43:15Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Counterfactual Explanations for Predictive Business Process Monitoring [0.90238471756546]
本稿では,予測プロセス監視のための対実的説明手法であるLORELEYを提案する。
LORELEYは平均忠実度97.69%の予測モデルを近似し、現実的な対実的な説明を生成する。
論文 参考訳(メタデータ) (2022-02-24T11:01:20Z) - Instance-Based Neural Dependency Parsing [56.63500180843504]
依存関係解析のための解釈可能な推論プロセスを持つニューラルモデルを開発する。
私たちのモデルはインスタンスベースの推論を採用しており、トレーニングセットのエッジと比較することで、依存関係のエッジを抽出し、ラベル付けします。
論文 参考訳(メタデータ) (2021-09-28T05:30:52Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Explainable Artificial Intelligence: How Subsets of the Training Data
Affect a Prediction [2.3204178451683264]
データサブセットの重要性をトレーニングするためにShapley値と呼ぶ新しい方法論を提案します。
提案手法を用いて,モデルの偏りや誤ったトレーニングデータを明らかにする方法を示す。
この説明は、アルゴリズムの内部動作をより認識し、同様の予測を生成するモデルがトレーニングデータの非常に異なる部分に基づいている方法を説明することを可能にすると主張しています。
論文 参考訳(メタデータ) (2020-12-07T12:15:47Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Are Visual Explanations Useful? A Case Study in Model-in-the-Loop
Prediction [49.254162397086006]
画像に基づく年齢予測課題における視覚的満足度に基づく説明について検討する。
モデル予測の提示により,人間の精度が向上することが判明した。
しかし、様々な種類の説明は、人間の正確さやモデルの信頼を著しく変えることができない。
論文 参考訳(メタデータ) (2020-07-23T20:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。