論文の概要: Interpretable by Design: Wrapper Boxes Combine Neural Performance with
Faithful Explanations
- arxiv url: http://arxiv.org/abs/2311.08644v1
- Date: Wed, 15 Nov 2023 01:50:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-16 17:41:01.920450
- Title: Interpretable by Design: Wrapper Boxes Combine Neural Performance with
Faithful Explanations
- Title(参考訳): 設計による解釈: ニューラルネットワークと忠実な説明を組み合わせたラッパーボックス
- Authors: Yiheng Su, Juni Jessy Li, Matthew Lease
- Abstract要約: モデル予測のための忠実な例に基づく説明を生成するための一般的なアプローチであるラッパーボックスを提案する。
ニューラルネットワークを通常のように訓練した後、学習された特徴表現は古典的な解釈可能なモデルに入力され、実際の予測を実行する。
- 参考スコア(独自算出の注目度): 3.8059763597999012
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Can we preserve the accuracy of neural models while also providing faithful
explanations? We present wrapper boxes, a general approach to generate
faithful, example-based explanations for model predictions while maintaining
predictive performance. After training a neural model as usual, its learned
feature representation is input to a classic, interpretable model to perform
the actual prediction. This simple strategy is surprisingly effective, with
results largely comparable to those of the original neural model, as shown
across three large pre-trained language models, two datasets of varying scale,
four classic models, and four evaluation metrics. Moreover, because these
classic models are interpretable by design, the subset of training examples
that determine classic model predictions can be shown directly to users.
- Abstract(参考訳): 忠実な説明を提供しながら、神経モデルの正確さを保てるか?
予測性能を維持しつつ,モデル予測のための忠実なサンプルベース説明を生成する一般的なアプローチであるラッパーボックスを提案する。
神経モデルを通常通りに訓練した後、学習した特徴表現を古典的な解釈可能なモデルに入力して実際の予測を行う。
この単純な戦略は驚くほど効果的で、その結果は、トレーニング済みの大規模な3つの言語モデル、異なるスケールの2つのデータセット、4つの古典モデル、そして4つの評価指標で示されるように、元のニューラルモデルとほぼ同等である。
さらに、これらの古典モデルは設計によって解釈可能であるので、古典モデル予測を決定する訓練例のサブセットをユーザに直接提示することができる。
関連論文リスト
- Representer Point Selection for Explaining Regularized High-dimensional
Models [105.75758452952357]
本稿では,高次元表現器と呼ぶサンプルベース説明のクラスを紹介する。
私たちのワークホースは、一般化された高次元モデルに対する新しい代表者定理である。
提案手法の実証的性能について,実世界の2進分類データセットと2つの推薦システムデータセットを用いて検討した。
論文 参考訳(メタデータ) (2023-05-31T16:23:58Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Training Deep Models to be Explained with Fewer Examples [40.58343220792933]
我々は、サンプル数を減らすために、スパース正規化器と同時に予測モデルと説明モデルを訓練する。
いくつかのデータセットを用いた実験により,提案手法は予測性能を維持しながら忠実性を向上させることを示した。
論文 参考訳(メタデータ) (2021-12-07T05:39:21Z) - Instance-Based Neural Dependency Parsing [56.63500180843504]
依存関係解析のための解釈可能な推論プロセスを持つニューラルモデルを開発する。
私たちのモデルはインスタンスベースの推論を採用しており、トレーニングセットのエッジと比較することで、依存関係のエッジを抽出し、ラベル付けします。
論文 参考訳(メタデータ) (2021-09-28T05:30:52Z) - On the Lack of Robust Interpretability of Neural Text Classifiers [14.685352584216757]
本研究では,事前学習したトランスフォーマーエンコーダをベースとしたニューラルテキスト分類器の解釈の堅牢性を評価する。
どちらのテストも、期待された行動から驚くほど逸脱しており、実践者が解釈から引き出す可能性のある洞察の程度について疑問を呈している。
論文 参考訳(メタデータ) (2021-06-08T18:31:02Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - In Pursuit of Interpretable, Fair and Accurate Machine Learning for
Criminal Recidivism Prediction [19.346391120556884]
本研究では、二項予測よりも確率を出力する解釈可能なモデルを訓練し、定量的フェアネス定義を用いてモデルを評価する。
フロリダ州とケンタッキー州の2つの異なる犯罪再犯データセット上で,ブラックボックスと解釈可能なMLモデルを生成した。
いくつかの解釈可能なMLモデルは、ブラックボックスMLモデルと同様に復調を予測でき、CompASやアーノルドPSAよりも正確である。
論文 参考訳(メタデータ) (2020-05-08T17:16:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。