論文の概要: Accurate and Intuitive Contextual Explanations using Linear Model Trees
- arxiv url: http://arxiv.org/abs/2009.05322v1
- Date: Fri, 11 Sep 2020 10:13:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 20:41:57.671504
- Title: Accurate and Intuitive Contextual Explanations using Linear Model Trees
- Title(参考訳): 線形モデル木を用いた正確で直感的な説明
- Authors: Aditya Lahiri, Narayanan Unny Edakunni
- Abstract要約: ローカルなポストホックモデル説明が広く採用されている。
技術手法の現状は、初歩的な手法を用いて説明すべき点の周囲に合成データを生成する。
我々は、合成データ生成にジェネレーティブ・アドバイサル・ネットワークを使用し、線形モデルツリーの形で断片的な線形モデルを訓練する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the ever-increasing use of complex machine learning models in critical
applications within the finance domain, explaining the decisions of the model
has become a necessity. With applications spanning from credit scoring to
credit marketing, the impact of these models is undeniable. Among the multiple
ways in which one can explain the decisions of these complicated models, local
post hoc model agnostic explanations have gained massive adoption. These
methods allow one to explain each prediction independent of the modelling
technique that was used while training. As explanations, they either give
individual feature attributions or provide sufficient rules that represent
conditions for a prediction to be made. The current state of the art methods
use rudimentary methods to generate synthetic data around the point to be
explained. This is followed by fitting simple linear models as surrogates to
obtain a local interpretation of the prediction. In this paper, we seek to
significantly improve on both, the method used to generate the explanations and
the nature of explanations produced. We use a Generative Adversarial Network
for synthetic data generation and train a piecewise linear model in the form of
Linear Model Trees to be used as the surrogate model.In addition to individual
feature attributions, we also provide an accompanying context to our
explanations by leveraging the structure and property of our surrogate model.
- Abstract(参考訳): 金融分野における重要なアプリケーションにおける複雑な機械学習モデルの利用がますます増えていく中、モデルの決定を説明することが必要である。
信用スコアから信用マーケティングまでのアプリケーションでは、これらのモデルの影響は否定できない。
これらの複雑なモデルの決定を説明できる複数の方法のうち、局所的なポストホックモデルに依存しない説明が広く採用されている。
これらの方法では、トレーニング中に使用されたモデリング技術とは無関係に、各予測を説明できる。
説明として、個々の特徴の帰属を与えるか、予測を行うための条件を表す十分なルールを提供する。
技術手法の現在の状態は、初歩的な手法を用いて説明すべき点の周りで合成データを生成する。
これに続いて、単純な線形モデルを代理として適合させ、予測の局所的な解釈を得る。
本稿では, 説明文の生成方法と, 説明文の生成特性について, 双方について, 大幅な改善を試みている。
我々は,合成データ生成のための生成的逆ネットワークを用いて,線形モデルツリーの形で分割線形モデルを訓練し,サロゲートモデルとして使用する。また,個々の特徴属性に加えて,サロゲートモデルの構造と特性を活用することにより,説明に付随する文脈を提供する。
関連論文リスト
- Exploring the Trade-off Between Model Performance and Explanation Plausibility of Text Classifiers Using Human Rationales [3.242050660144211]
ホック後説明可能性法は、ますます複雑なNLPモデルを理解するための重要なツールである。
本稿では,人間の判断を説明するテキストアノテーションをテキスト分類モデルに組み込む手法を提案する。
論文 参考訳(メタデータ) (2024-04-03T22:39:33Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Recurrence-Aware Long-Term Cognitive Network for Explainable Pattern
Classification [0.0]
構造化データの解釈可能なパターン分類のためのLCCNモデルを提案する。
本手法は, 決定過程における各特徴の関連性を定量化し, 説明を提供する独自のメカニズムを提供する。
解釈可能なモデルでは,最先端の白黒ボックスと比較して競争性能が向上する。
論文 参考訳(メタデータ) (2021-07-07T18:14:50Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Explaining predictive models with mixed features using Shapley values
and conditional inference trees [1.8065361710947976]
シェープな値は、あらゆる種類の機械学習モデルからの予測を説明するためのサウンドメソッドとして際立っている。
本研究では,条件付き推論木を用いた特徴の依存構造をモデル化し,混合依存的特徴を説明する手法を提案する。
論文 参考訳(メタデータ) (2020-07-02T11:25:45Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。