論文の概要: A Holistic Approach to Interpretability in Financial Lending: Models,
Visualizations, and Summary-Explanations
- arxiv url: http://arxiv.org/abs/2106.02605v1
- Date: Fri, 4 Jun 2021 17:05:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 14:56:22.233721
- Title: A Holistic Approach to Interpretability in Financial Lending: Models,
Visualizations, and Summary-Explanations
- Title(参考訳): 金融貸付における解釈可能性に関する総合的アプローチ--モデル,可視化,要約-
- Authors: Chaofan Chen, Kangcheng Lin, Cynthia Rudin, Yaron Shaposhnik, Sijia
Wang, Tong Wang
- Abstract要約: そのような機密性のない未来の世界では、正当な融資決定にどのような意思決定支援ツールを使いたいのか?
本稿では,グローバルな解釈可能な機械学習モデル,インタラクティブな可視化,および任意の決定に対するいくつかの要約と説明を含む,そのような決定のためのフレームワークを提案する。
私たちのフレームワークは、Explainable Machine Learning ChallengeでFICO認識賞を受賞しました。
- 参考スコア(独自算出の注目度): 25.05825112699133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lending decisions are usually made with proprietary models that provide
minimally acceptable explanations to users. In a future world without such
secrecy, what decision support tools would one want to use for justified
lending decisions? This question is timely, since the economy has dramatically
shifted due to a pandemic, and a massive number of new loans will be necessary
in the short term. We propose a framework for such decisions, including a
globally interpretable machine learning model, an interactive visualization of
it, and several types of summaries and explanations for any given decision. The
machine learning model is a two-layer additive risk model, which resembles a
two-layer neural network, but is decomposable into subscales. In this model,
each node in the first (hidden) layer represents a meaningful subscale model,
and all of the nonlinearities are transparent. Our online visualization tool
allows exploration of this model, showing precisely how it came to its
conclusion. We provide three types of explanations that are simpler than, but
consistent with, the global model: case-based reasoning explanations that use
neighboring past cases, a set of features that were the most important for the
model's prediction, and summary-explanations that provide a customized sparse
explanation for any particular lending decision made by the model. Our
framework earned the FICO recognition award for the Explainable Machine
Learning Challenge, which was the first public challenge in the domain of
explainable machine learning.
- Abstract(参考訳): 貸与決定は通常、ユーザに最小限の許容可能な説明を提供するプロプライエタリなモデルでなされる。
そのような機密性のない未来の世界では、正当な融資決定にどのような意思決定支援ツールを使いたいのか?
この問題は、パンデミックの影響で経済が劇的に変化し、短期的に大量の新規融資が必要になるため、タイムリーである。
本稿では,グローバルな解釈可能な機械学習モデル,インタラクティブな可視化,および任意の決定に対するいくつかの要約と説明を含む,意思決定のためのフレームワークを提案する。
機械学習モデルは、2層ニューラルネットワークに似ているが、サブスケールに分解できる2層追加リスクモデルである。
このモデルでは、第1(隠れ)層の各ノードは有意義なサブスケールモデルを表し、すべての非線形性は透明である。
当社のオンラインビジュアライゼーションツールは,このモデルの探索を可能にします。
我々は、グローバルモデルよりも単純だが一貫性のある3種類の説明を提供する。すなわち、隣接する過去のケースを使用するケースベースの推論説明、モデル予測に最も重要な機能のセット、モデルによってなされた特定の貸出決定に対して、カスタマイズされたスパースな説明を提供する要約説明である。
私たちのフレームワークは、説明可能な機械学習の領域で最初のパブリックチャレンジである、説明可能な機械学習チャレンジでfico recognition awardを受賞しました。
関連論文リスト
- Diffexplainer: Towards Cross-modal Global Explanations with Diffusion Models [51.21351775178525]
DiffExplainerは、言語ビジョンモデルを活用することで、マルチモーダルなグローバルな説明可能性を実現する新しいフレームワークである。
最適化されたテキストプロンプトに条件付けされた拡散モデルを使用し、クラス出力を最大化する画像を合成する。
生成した視覚的記述の分析により、バイアスと突発的特徴の自動識別が可能になる。
論文 参考訳(メタデータ) (2024-04-03T10:11:22Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - Motif-guided Time Series Counterfactual Explanations [1.1510009152620664]
本稿では,ポストホックな反事実的説明を直感的に生成する新しいモデルを提案する。
UCRリポジトリから5つの実世界の時系列データセットを用いてモデルを検証した。
論文 参考訳(メタデータ) (2022-11-08T17:56:50Z) - Recurrence-Aware Long-Term Cognitive Network for Explainable Pattern
Classification [0.0]
構造化データの解釈可能なパターン分類のためのLCCNモデルを提案する。
本手法は, 決定過程における各特徴の関連性を定量化し, 説明を提供する独自のメカニズムを提供する。
解釈可能なモデルでは,最先端の白黒ボックスと比較して競争性能が向上する。
論文 参考訳(メタデータ) (2021-07-07T18:14:50Z) - Dissecting Generation Modes for Abstractive Summarization Models via
Ablation and Attribution [34.2658286826597]
本稿では,要約モデル決定を解釈する2段階の手法を提案する。
まず、各デコーダ決定を複数の生成モードの1つに分類するために、モデル全体を非難することでモデルの振舞いを解析する。
入力に依存する決定を分離した後、いくつかの異なる帰属法を用いてこれらの決定を解釈する。
論文 参考訳(メタデータ) (2021-06-03T00:54:16Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Accurate and Intuitive Contextual Explanations using Linear Model Trees [0.0]
ローカルなポストホックモデル説明が広く採用されている。
技術手法の現状は、初歩的な手法を用いて説明すべき点の周囲に合成データを生成する。
我々は、合成データ生成にジェネレーティブ・アドバイサル・ネットワークを使用し、線形モデルツリーの形で断片的な線形モデルを訓練する。
論文 参考訳(メタデータ) (2020-09-11T10:13:12Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。