論文の概要: Explaining Adverse Actions in Credit Decisions Using Shapley
Decomposition
- arxiv url: http://arxiv.org/abs/2204.12365v1
- Date: Tue, 26 Apr 2022 15:07:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 12:37:07.650278
- Title: Explaining Adverse Actions in Credit Decisions Using Shapley
Decomposition
- Title(参考訳): シェープリー分解を用いた信用判断における逆作用の説明
- Authors: Vijayan N. Nair, Tianshu Feng, Linwei Hu, Zach Zhang, Jie Chen and
Agus Sudjianto
- Abstract要約: 本稿では、デフォルト確率の予測モデルに基づく信用決定に焦点を当て、有害な行動説明のための方法論を提案する。
低次相互作用を持つモデルを検討し、第一原理に基づくシンプルで直感的なアプローチを開発する。
機械学習結果の局所的解釈可能性に関する文献における他のShapley技術とは異なり、B-Shapは計算的に抽出可能である。
- 参考スコア(独自算出の注目度): 8.003221404049905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When a financial institution declines an application for credit, an adverse
action (AA) is said to occur. The applicant is then entitled to an explanation
for the negative decision. This paper focuses on credit decisions based on a
predictive model for probability of default and proposes a methodology for AA
explanation. The problem involves identifying the important predictors
responsible for the negative decision and is straightforward when the
underlying model is additive. However, it becomes non-trivial even for linear
models with interactions. We consider models with low-order interactions and
develop a simple and intuitive approach based on first principles. We then show
how the methodology generalizes to the well-known Shapely decomposition and the
recently proposed concept of Baseline Shapley (B-Shap). Unlike other Shapley
techniques in the literature for local interpretability of machine learning
results, B-Shap is computationally tractable since it involves just function
evaluations. An illustrative case study is used to demonstrate the usefulness
of the method. The paper also discusses situations with highly correlated
predictors and desirable properties of fitted models in the credit-lending
context, such as monotonicity and continuity.
- Abstract(参考訳): 金融機関が債権申請を辞退した場合は、有害行為(AA)が発生するとされる。
申請者は、その否定的決定の説明を受けることができる。
本稿では、デフォルト確率の予測モデルに基づく信用決定に焦点を当て、AA説明のための方法論を提案する。
問題は、負の決定に責任を負う重要な予測子を識別することであり、基礎となるモデルが加法的である場合、単純である。
しかし、相互作用を持つ線型モデルであっても非自明になる。
低次相互作用を持つモデルを検討し、第一原理に基づくシンプルで直感的なアプローチを開発する。
次に,最近提案されているベースライン・シャプリー (b-shap) の概念と形状分解の一般化について述べる。
機械学習結果の局所的解釈可能性に関する文献における他のShapley技術とは異なり、B-Shapは関数評価のみを含むため、計算可能である。
本手法の有用性を示すために例証的な事例研究が用いられる。
また,単調性や連続性などの信用貸出状況において,高い相関性のある予測器と適合モデルの望ましい特性を持つ状況についても論じる。
関連論文リスト
- Model-free Methods for Event History Analysis and Efficient Adjustment (PhD Thesis) [55.2480439325792]
この論文は、モデルフリーの観点から統一された統計学への独立した貢献のシリーズである。
第1章では、機械学習から予測技術を活用する柔軟なメソッドを定式化するために、モデルフリーの視点をどのように利用できるか、詳しく説明している。
第2章では、あるプロセスの進化が他のプロセスに直接影響されるかどうかを記述した地域独立の概念を研究している。
論文 参考訳(メタデータ) (2025-02-11T19:24:09Z) - On Model Extrapolation in Marginal Shapley Values [0.0]
モデル説明可能性の最も一般的な方法の1つは、Shapley値に基づいている。
シェープ値を計算するための限界的なアプローチは、うまく定義されていないかもしれないモデル外挿につながる。
本稿では,限界平均化を用いてモデル外挿を回避し,因果情報を付加することで因果シャプリー値を再現する手法を提案する。
論文 参考訳(メタデータ) (2024-12-17T18:33:14Z) - KACDP: A Highly Interpretable Credit Default Prediction Model [2.776411854233918]
本稿では,KAN(Kolmogorov-Arnold Networks)に基づく手法を提案する。
Kansは学習可能なアクティベーション機能を持ち、線形重みを持たない新しいタイプのニューラルネットワークアーキテクチャである。
実験により、KACDPモデルは、パフォーマンス指標において、メインストリームの信用デフォルト予測モデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-11-26T12:58:03Z) - Shapley Marginal Surplus for Strong Models [0.9831489366502301]
我々は、Shapley値がモデル予測の正確な説明であるが、機械学習モデル自体が真のデータ生成プロセス(DGP)の貧弱な説明であることを示している。
そこで,本研究では,特徴量から推定されるモデル空間を抽出する,新しい変数重要度アルゴリズム,Shapley Marginal Surplus for Strong Modelsを導入する。
論文 参考訳(メタデータ) (2024-08-16T17:06:07Z) - Variational Shapley Network: A Probabilistic Approach to Self-Explaining
Shapley values with Uncertainty Quantification [2.6699011287124366]
シェープ価値は、モデル決定プロセスの解明のための機械学習(ML)の基礎ツールとして現れている。
本稿では,Shapley値の計算を大幅に単純化し,単一のフォワードパスしか必要としない,新しい自己説明手法を提案する。
論文 参考訳(メタデータ) (2024-02-06T18:09:05Z) - Direct Advantage Estimation [63.52264764099532]
予測されるリターンは、学習を遅くする可能性のある望ましくない方法でポリシーに依存する可能性があることを示します。
本稿では,優位関数をモデル化し,データから直接推定する手法として,DAE(Direct Advantage Estimation)を提案する。
望むなら、値関数をDAEにシームレスに統合して、時間差学習と同様の方法で更新することもできる。
論文 参考訳(メタデータ) (2021-09-13T16:09:31Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Accurate and Intuitive Contextual Explanations using Linear Model Trees [0.0]
ローカルなポストホックモデル説明が広く採用されている。
技術手法の現状は、初歩的な手法を用いて説明すべき点の周囲に合成データを生成する。
我々は、合成データ生成にジェネレーティブ・アドバイサル・ネットワークを使用し、線形モデルツリーの形で断片的な線形モデルを訓練する。
論文 参考訳(メタデータ) (2020-09-11T10:13:12Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。