論文の概要: Explanation-Based Training with Differentiable Insertion/Deletion
Metric-Aware Regularizers
- arxiv url: http://arxiv.org/abs/2310.12553v1
- Date: Thu, 19 Oct 2023 08:02:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 16:14:49.049960
- Title: Explanation-Based Training with Differentiable Insertion/Deletion
Metric-Aware Regularizers
- Title(参考訳): 微分可能挿入/削除メトリック認識正規化器を用いた説明ベーストレーニング
- Authors: uya Yoshikawa, Tomoharu Iwata
- Abstract要約: 挿入/削除メトリック認識による説明に基づく最適化(ID-ExpO)を提案する。
メトリクスを差別化できるように拡張し、それを挿入と削除のメトリクスベースの正規化器の形式化に使用します。
その結果、ID-ExpOにより、一般的なポストホックの説明者が予測精度を維持しつつ、より忠実で理解しやすい説明を作成できることがわかった。
- 参考スコア(独自算出の注目度): 28.313727330005108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The quality of explanations for the predictions of complex machine learning
predictors is often measured using insertion and deletion metrics, which assess
the faithfulness of the explanations, i.e., how correctly the explanations
reflect the predictor's behavior. To improve the faithfulness, we propose
insertion/deletion metric-aware explanation-based optimization (ID-ExpO), which
optimizes differentiable predictors to improve both insertion and deletion
scores of the explanations while keeping their predictive accuracy. Since the
original insertion and deletion metrics are indifferentiable with respect to
the explanations and directly unavailable for gradient-based optimization, we
extend the metrics to be differentiable and use them to formalize insertion and
deletion metric-based regularizers. The experimental results on image and
tabular datasets show that the deep neural networks-based predictors fine-tuned
using ID-ExpO enable popular post-hoc explainers to produce more faithful and
easy-to-interpret explanations while keeping high predictive accuracy.
- Abstract(参考訳): 複雑な機械学習予測器の予測のための説明の質は、しばしば、説明の忠実性、すなわち、説明が予測者の振る舞いをいかに正確に反映するかを評価する挿入および削除のメトリクスを用いて測定される。
そこで本研究では, 予測精度を維持しつつ, 説明文の挿入・削除スコアを改善するために, 微分可能な予測器を最適化する挿入/削除量認識説明ベース最適化 (id-expo) を提案する。
元の挿入と削除のメトリクスは説明に無関心であり、勾配に基づく最適化では直接利用できないため、メトリクスを微分可能に拡張し、挿入と削除のメトリクスベースの正規化器を形式化する。
画像および表型データセットを用いた実験の結果,id-expoを用いて微調整されたディープニューラルネットワークに基づく予測器は,高い予測精度を維持しつつ,人気のあるポストホック解説者がより忠実で解釈しやすい説明を作成できることがわかった。
関連論文リスト
- Selective Explanations [14.312717332216073]
機械学習モデルは、1つの推論だけで特徴属性スコアを予測するために訓練される。
その効率にもかかわらず、償却された説明者は不正確な予測や誤解を招く説明を生み出すことができる。
そこで本稿では,低品質な説明文を生成する際の特徴帰属手法である選択的説明文を提案する。
論文 参考訳(メタデータ) (2024-05-29T23:08:31Z) - Model-Based Counterfactual Explanations Incorporating Feature Space Attributes for Tabular Data [1.565361244756411]
機械学習モデルは、大規模なデータセットからパターンを正確に予測する。
入力摂動の導入による予測を説明する対実的説明手法が顕著である。
現在の手法では、各入力変更の最適化問題を解く必要があり、計算コストがかかる。
論文 参考訳(メタデータ) (2024-04-20T01:14:19Z) - Regressor-Segmenter Mutual Prompt Learning for Crowd Counting [70.49246560246736]
本稿では,アノテーションの差によるバイアスや不正確性を解決するために,相互学習(mPrompt)を提案する。
実験により、mPromptは平均誤差(MAE)を著しく減少させることが示された。
論文 参考訳(メタデータ) (2023-12-04T07:53:59Z) - Can predictive models be used for causal inference? [0.0]
Supervised Machine Learning (ML)とDeep Learning (DL)アルゴリズムは予測タスクで優れている。
一般に、それらは非因果関係を利用して行うと仮定される。
この説明と予測のトレードオフは、期待したほど深く、根本的ではないことを示す。
論文 参考訳(メタデータ) (2023-06-18T13:11:36Z) - Explain, Adapt and Retrain: How to improve the accuracy of a PPM
classifier through different explanation styles [4.6281736192809575]
最近の論文では、結果指向の予測に予測プロセスモニタリングモデルがなぜ間違った予測を提供するのかを説明するための新しいアプローチが紹介されている。
半自動的な方法でミスを犯す予測者を誘導する最も一般的な特徴を特定するために、説明を利用する方法を示す。
論文 参考訳(メタデータ) (2023-03-27T06:37:55Z) - Semi-supervised counterfactual explanations [3.6810543937967912]
トレーニングデータと同じデータ分布にある反実的説明を生成するという課題に対処する。
この要件は, 自動エンコーダ再構築損失を, 対物探索プロセスに組み込むことによって解決されている。
本稿では,クラスタグ付き入力データを用いた半教師付き方式で自動エンコーダを訓練した場合の対実的説明の解釈性をさらに向上することを示す。
論文 参考訳(メタデータ) (2023-03-22T15:17:16Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Interpretable Mixture of Experts [71.55701784196253]
Interpretable Mixture of Experts (IME)は本質的に解釈可能なモデリングフレームワークである。
IMEは単一の解釈可能なモデルよりも正確であることが示され、既存の最先端のDeep Neural Networks(DNN)と正確に比較できる。
IMEの説明は、ユーザスタディを通じて一般的に使われているポストホックな説明法と比較される。
論文 参考訳(メタデータ) (2022-06-05T06:40:15Z) - The Unreliability of Explanations in Few-Shot In-Context Learning [50.77996380021221]
我々は、テキスト上の推論、すなわち質問応答と自然言語推論を含む2つのNLPタスクに焦点を当てる。
入力と論理的に整合した説明は、通常より正確な予測を示す。
本稿では,説明の信頼性に基づいてモデル予測を校正する枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-06T17:57:58Z) - Representation Learning for Sequence Data with Deep Autoencoding
Predictive Components [96.42805872177067]
本稿では,シーケンスデータの有用な表現が潜在空間における単純な構造を示すべきという直感に基づく,シーケンスデータの自己教師型表現学習法を提案する。
我々は,過去と将来のウィンドウ間の相互情報である潜在特徴系列の予測情報を最大化することにより,この潜時構造を奨励する。
提案手法は,ノイズの多い動的システムの潜時空間を復元し,タスク予測のための予測特徴を抽出し,エンコーダを大量の未ラベルデータで事前訓練する場合に音声認識を改善する。
論文 参考訳(メタデータ) (2020-10-07T03:34:01Z) - Post-Estimation Smoothing: A Simple Baseline for Learning with Side
Information [102.18616819054368]
本稿では,構造指標データを予測に組み込む高速かつ効率的な手法として,後推定平滑化演算子を提案する。
滑らかなステップは元の予測器とは分離されているため、機械学習タスクの幅広いクラスに適用できる。
大規模な空間的・時間的データセットに関する実験は,実測後のスムース化の速度と正確さを浮き彫りにした。
論文 参考訳(メタデータ) (2020-03-12T18:04:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。