論文の概要: Have We Learned to Explain?: How Interpretability Methods Can Learn to
Encode Predictions in their Interpretations
- arxiv url: http://arxiv.org/abs/2103.01890v1
- Date: Tue, 2 Mar 2021 17:42:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-06 06:56:51.959218
- Title: Have We Learned to Explain?: How Interpretability Methods Can Learn to
Encode Predictions in their Interpretations
- Title(参考訳): 説明することを学びましたか?
解釈可能性手法が解釈中の予測をエンコードする方法
- Authors: Neil Jethani, Mukund Sudarshan, Yindalon Aphinyanaphongs, Rajesh
Ranganath
- Abstract要約: 解釈を定量的に評価する手法としてEVAL-X、償却説明法としてREAL-Xを紹介します。
EVAL-Xは、予測が解釈にエンコードされたときに検出でき、定量的および放射線学者評価を通じてREAL-Xの利点を示す。
- 参考スコア(独自算出の注目度): 20.441578071446212
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While the need for interpretable machine learning has been established, many
common approaches are slow, lack fidelity, or hard to evaluate. Amortized
explanation methods reduce the cost of providing interpretations by learning a
global selector model that returns feature importances for a single instance of
data. The selector model is trained to optimize the fidelity of the
interpretations, as evaluated by a predictor model for the target. Popular
methods learn the selector and predictor model in concert, which we show allows
predictions to be encoded within interpretations. We introduce EVAL-X as a
method to quantitatively evaluate interpretations and REAL-X as an amortized
explanation method, which learn a predictor model that approximates the true
data generating distribution given any subset of the input. We show EVAL-X can
detect when predictions are encoded in interpretations and show the advantages
of REAL-X through quantitative and radiologist evaluation.
- Abstract(参考訳): 解釈可能な機械学習の必要性は確立されているが、多くの一般的なアプローチは遅く、忠実性がなく、評価が難しい。
Amortized descriptionメソッドは、単一のデータインスタンスに特徴的重要性を返すグローバルセレクタモデルを学ぶことで、解釈を提供するコストを削減します。
ターゲットの予測モデルによって評価されるように、セレクタモデルは解釈の忠実度を最適化するように訓練される。
ポピュラーな手法はセレクタモデルと予測モデルを共同で学習し,解釈内で予測を符号化できることを示す。
EVAL-Xは、解釈を定量的に評価する手法であり、REAL-Xは、入力の任意のサブセットを与えられた真のデータ生成分布を近似する予測モデルを学ぶ償却説明法である。
EVAL-Xは、予測が解釈にエンコードされたときに検出でき、定量的および放射線学者評価を通じてREAL-Xの利点を示す。
関連論文リスト
- XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - A Lightweight Generative Model for Interpretable Subject-level Prediction [0.07989135005592125]
本稿では,本質的に解釈可能な単一対象予測手法を提案する。
実験により、結果のモデルを効率よく逆転させ、正確な主観レベルの予測を行うことが示されている。
論文 参考訳(メタデータ) (2023-06-19T18:20:29Z) - Understanding Post-hoc Explainers: The Case of Anchors [6.681943980068051]
本稿では,テキストの判断を説明するために,少数の単語群をハイライトする規則に基づく解釈可能性法の理論解析を行う。
アルゴリズムを定式化し有用な洞察を提供した後、数学的にアンカーが有意義な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-15T17:56:34Z) - Personalized Interpretable Classification [8.806213269230057]
我々は、新たなデータマイニング問題として、パーソナライズされた解釈可能な分類を正式に導入する第一歩を踏み出します。
実データ集合に関する一連の実証的研究を行う。
我々のアルゴリズムは、これら最先端(SOTA)の解釈可能な分類器と同じレベルの予測精度を達成できる。
論文 参考訳(メタデータ) (2023-02-06T01:59:16Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - Explainability as statistical inference [29.74336283497203]
本稿では、解釈可能な予測を生成するために設計された一般的な深層確率モデルを提案する。
モデルパラメータは最大限の確率で学習でき、任意の予測ネットワークアーキテクチャに適応することができる。
実験により,複数命令を用いるとより合理的な解釈が得られることが示された。
論文 参考訳(メタデータ) (2022-12-06T16:55:10Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Adversarial Infidelity Learning for Model Interpretation [43.37354056251584]
本稿では,モデル解釈のためのモデル非依存能率直接(MEED)FSフレームワークを提案する。
我々のフレームワークは、正当性、ショートカット、モデルの識別可能性、情報伝達に関する懸念を緩和する。
我々のAILメカニズムは、選択した特徴と目標の間の条件分布を学習するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-09T16:27:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。