論文の概要: Explaining Adverse Actions in Credit Decisions Using Shapley
Decomposition
- arxiv url: http://arxiv.org/abs/2204.12365v1
- Date: Tue, 26 Apr 2022 15:07:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 12:37:07.650278
- Title: Explaining Adverse Actions in Credit Decisions Using Shapley
Decomposition
- Title(参考訳): シェープリー分解を用いた信用判断における逆作用の説明
- Authors: Vijayan N. Nair, Tianshu Feng, Linwei Hu, Zach Zhang, Jie Chen and
Agus Sudjianto
- Abstract要約: 本稿では、デフォルト確率の予測モデルに基づく信用決定に焦点を当て、有害な行動説明のための方法論を提案する。
低次相互作用を持つモデルを検討し、第一原理に基づくシンプルで直感的なアプローチを開発する。
機械学習結果の局所的解釈可能性に関する文献における他のShapley技術とは異なり、B-Shapは計算的に抽出可能である。
- 参考スコア(独自算出の注目度): 8.003221404049905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When a financial institution declines an application for credit, an adverse
action (AA) is said to occur. The applicant is then entitled to an explanation
for the negative decision. This paper focuses on credit decisions based on a
predictive model for probability of default and proposes a methodology for AA
explanation. The problem involves identifying the important predictors
responsible for the negative decision and is straightforward when the
underlying model is additive. However, it becomes non-trivial even for linear
models with interactions. We consider models with low-order interactions and
develop a simple and intuitive approach based on first principles. We then show
how the methodology generalizes to the well-known Shapely decomposition and the
recently proposed concept of Baseline Shapley (B-Shap). Unlike other Shapley
techniques in the literature for local interpretability of machine learning
results, B-Shap is computationally tractable since it involves just function
evaluations. An illustrative case study is used to demonstrate the usefulness
of the method. The paper also discusses situations with highly correlated
predictors and desirable properties of fitted models in the credit-lending
context, such as monotonicity and continuity.
- Abstract(参考訳): 金融機関が債権申請を辞退した場合は、有害行為(AA)が発生するとされる。
申請者は、その否定的決定の説明を受けることができる。
本稿では、デフォルト確率の予測モデルに基づく信用決定に焦点を当て、AA説明のための方法論を提案する。
問題は、負の決定に責任を負う重要な予測子を識別することであり、基礎となるモデルが加法的である場合、単純である。
しかし、相互作用を持つ線型モデルであっても非自明になる。
低次相互作用を持つモデルを検討し、第一原理に基づくシンプルで直感的なアプローチを開発する。
次に,最近提案されているベースライン・シャプリー (b-shap) の概念と形状分解の一般化について述べる。
機械学習結果の局所的解釈可能性に関する文献における他のShapley技術とは異なり、B-Shapは関数評価のみを含むため、計算可能である。
本手法の有用性を示すために例証的な事例研究が用いられる。
また,単調性や連続性などの信用貸出状況において,高い相関性のある予測器と適合モデルの望ましい特性を持つ状況についても論じる。
関連論文リスト
- Shapley Marginal Surplus for Strong Models [0.9831489366502301]
我々は、Shapley値がモデル予測の正確な説明であるが、機械学習モデル自体が真のデータ生成プロセス(DGP)の貧弱な説明であることを示している。
そこで,本研究では,特徴量から推定されるモデル空間を抽出する,新しい変数重要度アルゴリズム,Shapley Marginal Surplus for Strong Modelsを導入する。
論文 参考訳(メタデータ) (2024-08-16T17:06:07Z) - Variational Shapley Network: A Probabilistic Approach to Self-Explaining
Shapley values with Uncertainty Quantification [2.6699011287124366]
シェープ価値は、モデル決定プロセスの解明のための機械学習(ML)の基礎ツールとして現れている。
本稿では,Shapley値の計算を大幅に単純化し,単一のフォワードパスしか必要としない,新しい自己説明手法を提案する。
論文 参考訳(メタデータ) (2024-02-06T18:09:05Z) - Manifold Restricted Interventional Shapley Values [0.5156484100374059]
本稿では,モデル評価をデータ多様体に限定することにより,モデルの妥当性を尊重するemphManifoldShapを提案する。
理論的・実験的に、ManifoldShapはモデルの摂動のオフマニフォールドに対して堅牢であり、より正確で直感的な説明をもたらすことを示す。
論文 参考訳(メタデータ) (2023-01-10T15:47:49Z) - Direct Advantage Estimation [63.52264764099532]
予測されるリターンは、学習を遅くする可能性のある望ましくない方法でポリシーに依存する可能性があることを示します。
本稿では,優位関数をモデル化し,データから直接推定する手法として,DAE(Direct Advantage Estimation)を提案する。
望むなら、値関数をDAEにシームレスに統合して、時間差学習と同様の方法で更新することもできる。
論文 参考訳(メタデータ) (2021-09-13T16:09:31Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Accurate and Intuitive Contextual Explanations using Linear Model Trees [0.0]
ローカルなポストホックモデル説明が広く採用されている。
技術手法の現状は、初歩的な手法を用いて説明すべき点の周囲に合成データを生成する。
我々は、合成データ生成にジェネレーティブ・アドバイサル・ネットワークを使用し、線形モデルツリーの形で断片的な線形モデルを訓練する。
論文 参考訳(メタデータ) (2020-09-11T10:13:12Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z) - Explaining predictive models with mixed features using Shapley values
and conditional inference trees [1.8065361710947976]
シェープな値は、あらゆる種類の機械学習モデルからの予測を説明するためのサウンドメソッドとして際立っている。
本研究では,条件付き推論木を用いた特徴の依存構造をモデル化し,混合依存的特徴を説明する手法を提案する。
論文 参考訳(メタデータ) (2020-07-02T11:25:45Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。